L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 638 résultats.
Mission freelance
Consultant Senior Big Data CDP/HDP
Nexius Finance
Publiée le
CI/CD
Dynatrace
1 an
440-510 €
Paris, France
Contexte : Notre client, acteur majeur du secteur bancaire, recherche un Expert CDP (Cloudera Data Platform) avec une solide expérience sur HDP (Hortonworks Data Platform). Le consultant interviendra sur l’amélioration continue des services Big Data, la gestion des incidents et la coordination des équipes techniques situées en France et en Inde. La maîtrise d’Ansible pour l’automatisation est indispensable pour optimiser l’infrastructure et les processus critiques. Responsabilités : Assurer l’amélioration continue des services sur CDP : optimisation des performances et configurations. Gérer les incidents sur HDP et CDP en production. Automatiser les processus via Ansible : mise à jour et création de playbooks pour le déploiement et la gestion des clusters. Coordonner et collaborer avec les équipes techniques en France et en Inde. Livrables attendus : Documentation technique à jour des environnements. Playbooks automatisés et opérationnels.
Offre d'emploi
Technicien support F/H
AIS
Publiée le
1 mois
25k-30k €
150-300 €
Niort, Nouvelle-Aquitaine
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grands comptes, vos missions seront les suivantes : - Assistance niveau 1 et 2 - Réponse aux appels et demandes en direct - Assistance bureautique, application métier et matériel - Déploiement de postes et appareils mobiles (smartphones/tablettes Android) - Gestion de parc, inventaire - Administration Microsoft 365 (Exchange Online, Teams, Sharepoint) - Administration Exchange OnPrime et Online, Windows 11 Environnement Technique : Office 365 Matrix42 (gestion de tickets poste de travail et matériel/ logiciel) OmniVista (Matériel téléphonique fixe) OmniCanal (téléphonie IP par ordinateur), MDMBlack Berry (Gestion du parc mobile) Windows 10
Mission freelance
Product Owner Data & GenAI (DataLab)
Signe +
Publiée le
GenAI
12 mois
400-560 €
Vélizy-Villacoublay, Île-de-France
Contexte Un DataLab transverse structure et pilote des produits Data (BI, Analytics, Data Science) tout en développant des initiatives en IA Générative. L’enjeu est double : Industrialiser un portefeuille de produits Data Structurer et accélérer les usages GenAI à l’échelle de l’organisation Objectif principal Piloter le portefeuille Data comme un véritable produit et animer la stratégie GenAI. Rôle proche d’un Lead Product Data / Head of Data Product , pas d’un PO “exécutant”. ResponsabilitésPilotage produits Data Identifier et formaliser les besoins fonctionnels Construire et maintenir la roadmap Data Prioriser selon valeur métier Arbitrer capacité vs demandes Animer comités produits/projets Suivre adoption et valeur délivrée Interface principale entre métiers, IT et équipes Data Structuration GenAI Recenser et structurer les cas d’usage GenAI / POC Identifier les opportunités à forte valeur business Mettre en visibilité les solutions existantes Promouvoir les usages IA auprès des métiers Assurer une veille technologique continue (LLM, RAG, outils IA) Animer ateliers, communautés et acculturation Compétences attendues Product management confirmé Pilotage de portefeuille / roadmap stratégique Culture Data / BI solide Connaissance IA générative (LLM, RAG, cas d’usage métier) Capacité à structurer des initiatives transverses Soft skills clés Leadership d’influence Vision stratégique Forte autonomie décisionnelle Capacité à embarquer des équipes non techniques Esprit entrepreneurial
Mission freelance
Data Engineer Azure / Databricks
Signe +
Publiée le
Snowflake
12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Mission freelance
Data Scientist / ML Engineer (Credit Risk & GenAI)
Codezys
Publiée le
API
Azure
Data science
12 mois
Lille, Hauts-de-France
Dans le cadre de sa feuille de route en intelligence artificielle, ce client s'engage à développer et accélérer l’intégration des technologies de Machine Learning , Deep Learning , NLP (traitement du langage naturel) ainsi que des solutions d’IA Génératives . L’objectif est de maximiser l’exploitation des données, d’optimiser les processus opérationnels et d’améliorer l’expérience client. Objectifs et livrables Credit Risk Scoring Concevoir et optimiser, pour les équipes Risque et Validation, des modèles de scoring d’octroi et de comportement, en explorant des approches innovantes. Assurer la stabilité du coût du risque en entraînant et déployant ces solutions, tout en mettant en place un monitoring efficace de la dérive des modèles. Collaborer étroitement avec les experts métier et les équipes Risque pour garantir la pertinence et l’efficacité des solutions développées. Solutions d’Intelligence Artificielle Optimiser l’expérience client en intégrant en temps réel nos modèles d’IA via des API dans les parcours digitaux (ex. scoring en temps réel, personnalisation des offres de paiement, etc.). Participer à l’architecture technique pour une intégration fluide des modèles, en suivant les meilleures pratiques en matière de développement (notamment Cloud et MLOps). Collaborer avec les équipes Produit et IT afin d’industrialiser et déployer ces solutions à grande échelle. Intelligence Artificielle Générative (GenAI) Transformer les processus internes (Marketing, Audit, Risque, etc.) ainsi que la relation et le support client, en prototypant puis en déployant en production des solutions d’IA Générative sous forme d’agents (ex. LLM, RAG). Automatiser l’octroi de crédits, réaliser des analyses documentaires complexes et faciliter l’interaction avec la clientèle en mettant en place des architectures orientées agents. Évaluer, optimiser et suivre les performances des agents (cohérence, diversité, utilisation de LLM en tant que juge, etc.).
Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)
CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python
6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Offre d'emploi
Administrateur Bases de Données (F/H)
Experis France
Publiée le
30k-50k €
Niort, Nouvelle-Aquitaine
Administrateur Bases de Données (F/H) - Niort 🎯 Contexte Dans le cadre du renforcement du pôle Infrastructure & Cloud, de notre client, nous recherchons un(e) Administrateur(trice) Bases de Données. Le poste couvre plusieurs SGBD : Oracle (ExaCC), MySQL, PostgreSQL, SQL Server, Cassandra. Il n'est pas nécessaire de maîtriser l'ensemble, mais une bonne connaissance d'au moins deux est indispensable. Vous évoluerez au sein d'une équipe soudée et dynamique, au cœur d'un vaste écosystème de production orienté Linux. 🔧 Vos missions Assurer l'expertise N2 et N3 et accompagner les utilisateurs internes. Prendre en charge les incidents N2/N3 tout en respectant les SLA. Garantir la disponibilité, l'intégrité et la résilience des données. Assurer le MCO et contribuer à ses évolutions. Participer aux choix d'architecture et aux orientations techniques de la plateforme. Automatiser les opérations manuelles via Ansible, Python ou Shell Linux. Contribuer à l'amélioration continue, à l'industrialisation et à la performance globale des environnements.
Mission freelance
AWS Platform Engineer – Environnement Data & Analytics
Comet
Publiée le
AWS Cloud
1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data & Analytics, vous rejoignez une équipe en charge de la construction et de l’évolution d’une plateforme cloud AWS. L’environnement est en pleine transformation technologique avec des enjeux forts autour de la gouvernance, la sécurité et la performance. Rôles & responsabilités Au sein de l’équipe Data & Analytics Platform : Développement et mise à jour de l’infrastructure Terraform (Infrastructure as Code) Mise en œuvre des règles de sécurité et des bonnes pratiques cloud Gestion et optimisation des environnements AWS Administration du datalake (stockage, lifecycle policies, gouvernance data) Gestion des VPC, NACLs, IAM Conception et maintenance des pipelines CI/CD Déploiement de microservices conteneurisés (EKS / ECS) Monitoring & supervision Documentation technique et accompagnement des équipes Compétences requises (minimum 2 ans d’expérience AWS) Cloud & Data Exploitation d’un datalake AWS S3 (schemas, lifecycle policies) Gouvernance & sécurité des données Performance & optimisation des coûts DevOps / Infra Terraform CI/CD GitHub / GitHub Actions Infrastructure as Code Docker Monitoring Développement Python APIs REST (event-driven apprécié)
Mission freelance
Data Engineer expert sur Snowflake et DBT
Nicholson SAS
Publiée le
DBT
Snowflake
SQL
6 mois
500 €
Paris, France
Mon client recherche un Data Engineer expert sur Snowflake et DBT pour rejoindre ses équipes basées à Paris , avec une présence impérative de 3 jours par semaine sur site . La mission débutera dès que possible pour une durée initiale allant jusqu’au 30 juin 2026 . Le taux journalier maximum est fixé à 500 euros . Dans un contexte de modernisation et d’optimisation de la plateforme data, l’expert interviendra pour structurer et organiser l’environnement Snowflake , définir et diffuser les bonnes pratiques de développement ainsi que mettre en place les standards de qualité et de performance . Il accompagnera les équipes techniques dans l’ adoption de ces standards et s’assurera de la cohérence des modèles de données et des pipelines existants. Le profil recherché dispose de plus de 6 ans d’expérience en ingénierie data et justifie d’une excellente maîtrise de Snowflake, DBT et SQL . Une aisance en anglais est indispensable pour évoluer dans un environnement international. Ce rôle stratégique allie vision technique, rigueur et pédagogie afin de garantir la robustesse et la scalabilité des solutions data au sein du groupe.
Offre d'emploi
Tech Lead IAM - Data - Chiffrement (H/F)
5COM Consulting
Publiée le
Grafana
Keycloak
Red Hat
3 ans
Paris, France
Nous recherchons un(e) Tech Lead expérimenté(e) pour piloter la conception et l'évolution des solutions IAM, Data et Chiffrement au sein d'une équipe Engineering Platform. Vous serez le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, tout en accompagnant la transformation technique et organisationnelle. Vos missions principales Management & Organisation Encadrer et faire monter en compétences les équipes (collaborateurs internes et prestataires) Définir la roadmap technique et prioriser les initiatives stratégiques Animer les rituels Agile (Scrum/Kanban) et participer aux comités de pilotage Assurer la coordination transverse avec les équipes projets, production et sécurité Promouvoir les bonnes pratiques DevSecOps et la culture d'amélioration continue Expertise Technique Maîtriser les protocoles d'authentification : SAML v2, OpenID Connect, OAuth2, WebAuthn, FIDO2 Concevoir et superviser l'intégration de solutions IAM dans des environnements Cloud (AWS, Azure, GCP) Définir les standards de chiffrement et de gestion des clés/certificats Orienter les développements en Java/Spring Boot/JEE selon les principes Clean Code Superviser l'optimisation des bases PostgreSQL et garantir la haute disponibilité (PCA/PRA) Contrôler la conformité des pipelines CI/CD (GitHub Actions, Jenkins) Mettre en place l'observabilité (Grafana, Prometheus, Loki)
Offre d'emploi
Développeur Middleware – Intégration & Data (H/F)
WINSIDE Technology
Publiée le
API
Batch
BI
1 an
Lille, Hauts-de-France
Démarrage : ASAP Localisation : Lille (59), avec 2 jours de télétravail/semaine Durée de la mission : longue Contexte Dans le cadre d’une importante transformation de son Système d’Information, notre client recherche un Développeur Middleware / Intégration pour renforcer son pôle dédié aux flux, à la data et à l’interconnexion des applications. Votre mission Concevoir, développer et maintenir des solutions d’intégration (batch, temps réel, API, BI) afin de garantir : la fiabilité des flux , la qualité des données , la continuité opérationnelle , et la modernisation progressive du socle d’intégration. Vos responsabilités 1. Développement & Delivery Conception et réalisation de composants d’intégration (transformations, échanges inter-applicatifs, exposition de services). Développement de traitements ETL/batch , temps réel (ESB/API/event-driven) ou data/BI selon les besoins. Contribution aux estimations, lotissements et préparations des mises en production. 2. Fiabilisation & Continuité opérationnelle Diagnostic et résolution des incidents liés aux flux. Mise en place de pratiques de robustesse : reprise sur erreur, idempotence, gestion de volumétrie, alerting… Contribution à l’industrialisation (logs, supervision, runbooks). 3. Qualité & bonnes pratiques Respect des standards de développement (naming, quality gates, documentation…). Mise en œuvre de tests, validations de données et revues techniques. 4. Données & Modélisation Manipulation de bases SQL (requêtes, performance, modélisation). Prise en compte des enjeux de qualité et cohérence des données. 5. Collaboration transverse Travail avec architectes, experts, Tech Leads et équipes applicatives. Participation aux ateliers techniques, capitalisation et amélioration continue. Force de proposition sur la rationalisation et les patterns d’intégration. Vos compétences Solide culture de l'intégration (patterns, orchestrations, résilience). Maîtrise SQL et environnements bases de données (Oracle apprécié). Compétences dans un ou plusieurs domaines : ETL / batch (DataStage, ODI, Sunopsis…) ESB / API / Event-driven Modélisation & exposition de services (REST) Dév d’intégration (Node.js ou équivalent) BI / décisionnel Adaptabilité, rigueur, documentation, sens de l’exploitabilité. Profil recherché Expérience confirmée en intégration et flux de données . Approche “ingénieur d’intégration” plutôt qu'expert mono-outil. Aisance dans un environnement multi-équipes, orienté performance et continuité de service. Une expérience retail / omnicanal est un plus.
Mission freelance
Directeur de Projet IT – Risques & Data (Projet de Transformation)
VISIAN
Publiée le
Finance
1 an
400-820 €
Île-de-France, France
🏢 Contexte Au sein de la DSI d’un grand groupe bancaire international, vous interviendrez sur un programme transverse de transformation des systèmes liés aux indicateurs de risques et à la gestion des données. Le projet vise la rationalisation des stockages de données, l’optimisation des processus de production d’indicateurs et l’amélioration des outils de suivi des risques. 🎯 Missions principales Piloter un projet transverse autour des indicateurs de risques Coordonner les équipes métiers, IT et parties prenantes multiples Animer des ateliers avec les équipes Risque et Modélisation Suivre les jalons projet et assurer le respect des délais Rédiger et relire les spécifications fonctionnelles Préparer et superviser les plans de tests Présenter les livrables et animer les instances de gouvernance Produire des synthèses et reportings projet Accompagner la conduite du changement Garantir la qualité de la documentation et le bon déroulement des phases projet
Mission freelance
Data Engineer Azure Python
Cherry Pick
Publiée le
Azure
Python
SQL
12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Mission freelance
Data Engineer
CAT-AMANIA
Publiée le
Data analysis
Large Language Model (LLM)
OCR (Optical Character Recognition)
3 ans
Lyon, Auvergne-Rhône-Alpes
La l'équipe RAD-LAD (Reconnaissance Automatique de Documents et Lecture Automatique de Documents) a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. L'équipe souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment). * Tester différents LLM peu importe le provider (aws, gcp, azure) * Préparer les jeux de données * Définir les conditions de succès et d’échec et paramétrer les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendus * Faire des développements sur les produits de la squaq (Java / Python)
Offre d'emploi
Expert Data Snowflake / Azure (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet stratégique de mise en place d’un MVP Data, nous recherchons un Expert Data Snowflake / Azure, avec une forte culture Data Engineering et Cloud. Vos missions : Participer à la conception et à l’implémentation de l’architecture Data basée sur Snowflake et Azure Contribuer aux choix d’architecture cloud, data et infrastructure Développer et optimiser les pipelines de données (ingestion, transformation, modélisation) Travailler sur les aspects performance, sécurité et scalabilité Collaborer étroitement avec les équipes projet et les partenaires impliqués dans l’implémentation Intégrer les bonnes pratiques DevOps / DataOps Environnement technique : Snowflake Microsoft Azure Concepts Cloud & Architecture Data Infrastructure & DevOps (CI/CD, automatisation, monitoring…) Outils Data Engineering
Offre d'emploi
Consultant Fonctionnel – Marchés Organisés / Bourse (F/H)
CELAD
Publiée le
Business Analyst
MOA
6 mois
Yerres, Île-de-France
Nous recherchons actuellement un.e Consultant Fonctionnel (MOA / Business Analyst..) pour intervenir chez un acteur majeur du secteur bancaire. Contexte Vous interviendrez sur un périmètre lié aux activités de marché et à la gestion d’opérations boursières. L’environnement est structuré, réglementé et exigeant. Votre rôle sera clé dans la compréhension des besoins métier et leur traduction en solutions fonctionnelles robustes. Vos missions - Recueillir et analyser les besoins des équipes métiers - Rédiger les spécifications fonctionnelles détaillées - Assurer l’interface entre les équipes métier et IT - Participer aux ateliers de cadrage - Accompagner les phases de recette fonctionnelle - Suivre les évolutions réglementaires et leurs impacts fonctionnels
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5638 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois