Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 658 résultats.
Freelance
CDI

Offre d'emploi
Buisness analyst / DATA ( trade finance ) - Denodo

AVA2I
Publiée le
Data quality
Microsoft Power BI

1 an
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation data au sein du métier Trade Finance, vous interviendrez sur la mise en place d’un Buisness Analyste/ DATA basé sur une plateforme de virtualisation de données. L’objectif est de : Centraliser et fiabiliser les données métiers Modéliser la donnée en fonction des besoins opérationnels Distribuer la donnée via API, reporting et applications Garantir la qualité et la gouvernance des données 🛠️ Missions 🔍 Analyse & cadrage Recueillir et analyser les besoins métier (ateliers, cadrage) Rédiger les spécifications fonctionnelles et user stories 🧠 Data & modélisation Analyser les modèles de données existants Mapper et intégrer les données (data virtualisation / denodo VQL) Participer à la construction du Data Product 🤝 Support & coordination Assurer un support fonctionnel auprès des équipes de développement Faire l’interface entre les équipes IT et les métiers 📊 Reporting & BI Concevoir et développer des dashboards et rapports ✅ Data Quality & Gouvernance Définir et implémenter des règles de qualité des données Contribuer à la gouvernance des données 🧩 Compétences fonctionnelles Bonne compréhension des besoins métier Une connaissance du Trade Finance est un plus 🌟 Soft skills Rigueur et esprit analytique Curiosité et proactivité Bon relationnel et communication ➕ Atouts Expérience en environnement bancaire ou financier Connaissance d’un progiciel Trade Finance (type TI+) Expérience sur des projets data complexes
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Bordeaux

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Bordeaux, Nouvelle-Aquitaine
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Freelance

Mission freelance
Architecte Data IA

ematiss
Publiée le
IA

6 mois
400-650 €
Nantes, Pays de la Loire
Prestation d'Architecture au sein d'une nouvelle plateforme Data IA chez notre client. La mission consiste : - de par son expertise à accompagner le client dans cette transition technologique - à conseiller sur la nouvelle nouvelle architecture cloud-native et orienté self-service en intégrant des solutions modernes telles que Kafka, Iceberg, Trino et S3. - à accompagner l'équipe en charge du socle service data pour challenger les choix d'architecture autour des solutions d'observabilité offertes par OpenMetadata, SODA et/ou Great Expectations par exemple. - à participer à la conception d'architectures robustes et évolutives, tout en garantissant la conformité RGPD et la sécurité des données. - à travailler en étroite collaboration avec les Product Owners, Tech Lead, Data Stewards et DevOps pour assurer l'intégration harmonieuse des nouveaux produits. Qualifications demandées : Apache Kafka,Cloud Architecture.
CDI
CDD

Offre d'emploi
Data Analyst - Bordeaux

OCTOGONE
Publiée le
BI
Google Cloud Platform (GCP)
PL/SQL

9 mois
Bordeaux, Nouvelle-Aquitaine
Contexte Rattaché(e) à l'équipe Data au sein de la R&D d'un ERP Commerce d'un groupe de grande distribution, le/la Data Analyst aura pour mission de manipuler, mettre en qualité et exposer les données aux centrales d'achat du groupe. La mission s'inscrit dans un environnement technologique Cloud (GCP) utilisant des bases de données volumineuses. Description La mission inclut l'écriture et l'optimisation de requêtes SQL complexes pour l'extraction de données. Le consultant participera à la mise en qualité des données lors du déploiement de nouvelles Centrales et assurera une veille sur les outils BI et les principes d'IA générative. Livrables Requêtes SQL optimisées, jeux de données qualifiés pour les reprises de données, et tableaux de bord de visualisation (Looker, Power BI). Compétences Maîtrise avancée de SQL, connaissance de Google Cloud Platform (BigQuery), outils de Business Intelligence, programmation Python et familiarité avec l'IA/Machine Learning.
Freelance

Mission freelance
POT8982 - Un intégrateur AWS Platform Engineer sur Paris 02

Almatek
Publiée le
API

6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un intégrateur AWS Platform Engineer sur Paris 02. Contexte: Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe Global Information Technology Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data &Analytics utilisée par l’ensemble des entités de l’entreprise. Rôles et responsabilités : En tant que membre du squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. • Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL : De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS. • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA. • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Expérience requise : 2 ans d’expérience minimum : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro-services : • Python • APIs (REST, event-driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision Langues : Anglais et Français
CDI

Offre d'emploi
Data Engineer Snowflake H/F

JEMS
Publiée le

40k-50k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un(e) data engineer spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : bh4lb59dqp
Freelance

Mission freelance
Azure Platform Engineer – Data & Analytics

Codezys
Publiée le
Ansible
Azure
Azure Data Factory

6 mois
370-460 €
Paris, France
Contexte de la mission Cette équipe est responsable de la conception, du déploiement et de la maintenance d'une plateforme data cloud utilisée à l’échelle du groupe. Cette plateforme doit répondre à des enjeux majeurs tels que : la scalabilité la gouvernance la sécurité la performance Actuellement, l’environnement est principalement orienté vers Azure, avec une interopérabilité multi-cloud envisageable. Objectifs et livrables Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures en utilisant Terraform, Bicep et ARM Déploiement et gestion des ressources Azure : Azure Data Lake Storage (ADLS Gen2) Azure Storage (Blob) Azure Virtual Network, NSG, Private Endpoints Gestion des environnements cloud (DEV, TEST, PROD) Data Platform Administration et exploitation d’un Data Lake Azure Gestion des accès, de la gouvernance et de la sécurité des données : Azure AD / RBAC Politiques / Purview pour la gouvernance data Optimisation des performances et des coûts CI/CD & Automatisation Conception et maintenance de pipelines CI/CD avec Azure DevOps et GitHub Actions Automatisation des déploiements (infrastructure, données et services) Développement & APIs Création de microservices en Python Développement de REST APIs et architectures événementielles Intégration avec les services Azure tels que Functions et Event Hub Containers & Orchestration Déploiement de services containerisés via : Azure Kubernetes Service (AKS) Azure Container Apps / Azure Container Instances Monitoring & Fiabilité Mise en place de solutions de supervision telles que Azure Monitor, Log Analytics et Application Insights Suivi de la performance et de la disponibilité des services Collaboration Rédaction de documentation technique Interaction avec les équipes data, développement et métier Participation aux cérémonies Agile
Freelance
CDI

Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics

Ela Technology
Publiée le
Machine Learning
Python
SQL

6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Freelance

Mission freelance
Ingénieur DevOps (Bordeaux)

CAT-AMANIA
Publiée le
Ansible
AWS Cloud
Azure

3 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
En tant qu'Ingénieur DevOps et en collaboration avec les équipes de développement, d'exploitation et d'architecture, votre activité sera de : Contribuer à la conception, au déploiement et à l’exploitation de systèmes fiables et scalables Être le Backup de l’architecte DevOps sur la stack GitLab (CI/CD, pipelines, runners) puis maintien en condition opérationnelle Réaliser l'automatisation des déploiements et des infrastructures (IaC) Mettre en oeuvre des pratiques DevSecOps Superviser, monitorer et gérer des incidents Réaliser l'optimisation continue des pipelines CI/CD Documenter et transmettre les compétences vers les équipes internes
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python

12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
Data Engineer

Hanson Regan Limited
Publiée le
Apache NiFi
Cloudera
Hadoop

12 mois
500-650 €
Paris, France
Hanson Regan recherche un Data Engineer pour une mission 12 mois renouvelable, basée à Paris Données en anglais : Compétences: -Hadoop Cloudera - Flux de travail / injection - Outils de visualisation - Pipeline Longue liste : Les outils d’ingestion de données : NiFi Les outils de stockage de données : HDFS, CEPH Les outils d’ordonnancement des jobs : Airflow Les outils de gestion des ressources (CPU, RAM) : YARN Les moteurs et frameworks d’exécution : MapReduce, Spark, TEZ Les langages de développement : Python, Scala Les outils de prototypage/exploration : Jupyter, Dataiku Les outils orientés datamart : Hive, PostgreSQL Les outils de proxyfication (Access) : Knox, HAProxy Les outils d’affichage d’indicateurs et tableau de bord : Grafana, Tableau, Superset, S7 Les outils de sécurité : Kerberos, LDAP, IPA gratuite Les outils d’administration et de gouvernance : ClouderaManager, Ranger Les outils de supervision et d’exploitation (DevOps) : Prometheus, Puppet, Heat, Ansible Les dépôts de binaires : Mirroring des dépôts issus du web HTTP pour les applications tiers. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
CDI
Freelance

Offre d'emploi
Consultant AMOA DATA / IA H/F

Le Groupe SYD
Publiée le
AMOA
Data science
Intelligence artificielle

12 mois
40k-50k €
375-475 €
Nantes, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Nantes (44), deux Consultant AMOA Data/IA H/F . Démarrage : ASAP Lieu : Nantes (44) Télétravail : 2 jours/semaine (non-négo) 👉 Dans le cadre de sa transformation numérique, notre client recherche deux Consultant(e)s AMOA Data/IA . À ce titre, vos missions seront : Identifier et cadrer les opportunités de projets IA à forte valeur Acculturer et former les équipes métiers aux enjeux de l’IA Accompagner le développement et le déploiement des solutions IA Identifier et lever les freins à l’adoption des outils IA Renforcer la collaboration entre les équipes métiers et les équipes IT IA
CDI

Offre d'emploi
Data Engineer Snowflake H/F

JEMS
Publiée le

40k-55k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) data engineer spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 12zcorxp80
CDI
Freelance

Offre d'emploi
Architecte Technique (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre du renforcement d’une direction IT d’un grand acteur de la protection sociale, nous recherchons une(e) Architecte Technique confirmé pour intervenir sur des projets stratégiques (applicatif, IT4IT, RUN Architecture). Missions : Définir et concevoir des architectures techniques et infrastructures Garantir le respect des standards et bonnes pratiques Proposer des solutions robustes, performantes et sécurisées Participer aux études, POC et choix technologiques Contribuer aux comités et à la gouvernance d’architecture Support ponctuel niveau 3 sur incidents complexes Compétences techniques: AWS, VMware (VCF), environnements hybrides Architectures distribuées & infrastructures (réseau, stockage, sécurité…) CI/CD, automatisation, Infrastructure as Code Conteneurs / Kubernetes appréciés
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
2658 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous