Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 252 résultats.
Freelance
CDD

Offre d'emploi
Data Engineer Azure Databricks H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD

8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
CDI

Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

Saint-Denis, La Réunion

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Offre premium
Freelance
CDI
CDD

Offre d'emploi
Expert Kubernetes / Openshift

LOMEGARD
Publiée le
Cloud
Docker
Kubernetes

1 an
40k-75k €
400-620 €
Île-de-France, France
Contexte Au sein d’une équipe spécialisée en orchestration de conteneurs , vous intervenez sur la mise en œuvre, l’exploitation et l’évolution de plateformes Kubernetes et OpenShift dans un environnement Cloud industriel et fortement régulé . L’équipe a pour rôle de fournir des clusters Kubernetes et Openshift prêts à l’emploi , sécurisés, automatisés et intégrés au système d’information, afin de permettre aux équipes applicatives de consommer des services Cloud de manière autonome et conforme aux standards internes. La mission s’inscrit dans une logique de support avancé des plateformes , d’ automatisation , d’ innovation et d’ amélioration continue des environnements Kubernetes/Openshift . Missions En tant qu’ Expert Kubernetes , vous interviendrez notamment sur les sujets suivants : Exploitation et support de clusters Kubernetes / OpenShift en environnement Cloud et on prem Administration avancée des objets Kubernetes (nodes, namespaces, workloads, networking, storage, RBAC, etc.) Gestion des incidents de niveau N2 à N3 (diagnostic, résolution, prévention) Participation aux évolutions et à l’industrialisation des plateformes de conteneurisation Mise en œuvre et amélioration de l’ automatisation et de l’Infrastructure as Code Contribution aux choix techniques, à l’innovation et aux bonnes pratiques autour de Kubernetes Participation à la sécurisation des plateformes selon les standards internes Collaboration avec les équipes applicatives, cloud et infrastructure Participation à des astreintes liées au support des plateformes Le poste est orienté expertise et support de clusters Kubernetes : il ne s’agit pas d’un rôle DevOps orienté CI/CD applicatif , mais bien d’un rôle centré sur la stabilité, la performance et l’évolution des plateformes Kubernetes.
Freelance

Mission freelance
Data Engineer industriel

MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel

6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Freelance
CDI

Offre d'emploi
Data scientist Senior

VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python

1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Freelance
CDI

Offre d'emploi
Data Analyst Senior ( F/H) Nantes

Argain Consulting Innovation
Publiée le
Microstrategy
PowerBI
SQL

1 an
40k-45k €
500-550 €
Nantes, Pays de la Loire
🎯 Contexte Dans le cadre du renforcement des équipes Data d’un grand acteur du secteur bancaire, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des problématiques de pilotage de la performance, marketing et parcours digitaux. 🚀 Mission Vous interviendrez en étroite collaboration avec les équipes métiers afin de : Recueillir et analyser les besoins métiers, les traduire en indicateurs de performance (KPI) Exploiter les données issues des systèmes décisionnels et marketing Produire et automatiser des reportings et tableaux de bord Concevoir des restitutions visuelles claires et orientées décision Accompagner les équipes dans l’interprétation des analyses Mettre à disposition et maintenir des KPI fiables et pertinents Participer à l’amélioration continue des pratiques Data 📈 Responsabilités clés Analyse et valorisation des données Définition et suivi des indicateurs business Contribution à la stratégie de pilotage et à la prise de décision 🛠️ Compétences techniques Outils de Data Visualisation : MicroStrategy (idéalement) ou Power BI / Tableau SQL avancé (expert) Manipulation de bases de données volumineuses (type Teradata ou équivalent) Bonne compréhension des environnements data et décisionnels 🤝 Compétences fonctionnelles & soft skills Très bonne communication et pédagogie Capacité à challenger les besoins métiers Esprit d’analyse et de synthèse Autonomie et rigueur Adaptabilité et sens de l’organisation ➕ Atouts Expérience dans le secteur bancaire ou financier Connaissance des problématiques marketing et digitales Connaissance d’outils de tracking (type Tag Management / Web Analytics) Mission longue durée, Nantes 3 jours de présence sur site par semaine obligatoire
Freelance

Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL

12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Freelance
CDI

Offre d'emploi
Expert Delivery Backup - IaaS

VISIAN
Publiée le
Cohesity
Data Center
NetBackup

1 an
Île-de-France, France
Contexte Au sein de la division IaaS, le Delivery Backup est en charge de la gestion des infrastructures de sauvegarde, TSM et Commvault. L'évolution rapide et constante des technologies implique une transformation et convergence des architectures IT, des technologies, des process et développement des solutions Cloud. Missions Vous contribuerez à être le garant des solutions techniques à travers des études Vous assurez la faisabilité des moyens de production matériels et logiciels Vous apportez des optimisations sur l’existant et des solutions nouvelles Vous assurez une expertise envers les clients, les chefs de projets et avec toutes les entités du groupe (étrangères également) Vous mettez à disposition des masters, des documentations et des procédures de déploiement Vous définissez les normes d’installation et d’utilisation des matériels et des logiciels
Freelance

Mission freelance
Data Analyst – Data produit & trafic web - Paris (H/F)

EASY PARTNER
Publiée le
Apache Spark
Microsoft Power BI
PL/SQL

1 an
400-430 €
Paris, France
Dans le cadre de projets liés à l’analyse de la performance digitale (web et mobile), un acteur du secteur digital recherche un Data Analyst . Les missions portent sur l’analyse des données de trafic et des usages utilisateurs. Missions Analyser les données d’usage (web / mobile / trafic) Construire et maintenir des dashboards métiers (Power BI, Tableau) Suivre les KPIs produits et business Collaborer avec les équipes produit et techniques Participer au reporting et à la prise de décision Power BI tracking web outils analytics (type GA, dataLayer…) SQL avancé Power BI / Tableau Python
Freelance
CDI

Offre d'emploi
Architect Data & IA ( Python, IA, API, Cloud...) - Secteur Assurance

OBJECTWARE
Publiée le
Agent IA
Cloud
Python

3 ans
40k-75k €
330-640 €
Nanterre, Île-de-France
🧩 Les responsabilités clés (traduction métier) Ce que fera concrètement le consultant : Concevoir une architecture de plateforme IA (TAS Pricing) Définir : APIs Data flows sécurité infra cloud Connecter : modèles IA (Python / Domino Datalab) data platform (CTDF) front/back (Java / Angular) Mettre en place : CI/CD environnements monitoring 👉 + rôle de référent technique / leader de squad Architecture : microservices, API-first Cloud : AWS / Azure / GCP (ou cloud interne BNP) Data : pipelines, ingestion, modelling IA : intégration de modèles (pas forcément data scientist pur) Tech : Python (IA) Java / Angular (exposition des services) DevOps : CI/CD, infra, monitoring Sécurité : IAM, chiffrement, architecture sécurisée GREAT PLACE TO WORK depuis 2019 et BEST WORKPLACE FRANCE 2023-2024 & 2025 Depuis 24 ans, le Groupe Objectware développe ses expertises et practices pour accompagner ses clients dans l’optimisation de leurs performances et leurs enjeux de transformation. Notre expertise en Management de projets, Développement applicatif, Infrastructure, Opération et Sécurité nous permet d’avoir une couverture totale sur le cycle de vie des projets de nos clients.
CDI

Offre d'emploi
CDD Data Analyst Junior F/H (H/F)

█ █ █ █ █ █ █
Publiée le
eFront
Python
SQL

Croix, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Administrateur Linux F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Linux
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
251774/Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN

WorldWide People
Publiée le
Snowflake

3 mois
Bretagne, France
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles Objectifs et livrables Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. Compétences demandées Compétences Niveau de compétence QlikCloud Avancé QLIKVIEW Confirmé Snowflake Avancé Architecture BI Confirmé QlikSense Confirmé
Freelance

Mission freelance
Tech Lead Data GCP

UCASE CONSULTING
Publiée le
DBT
GenAI
Google Cloud Platform (GCP)

1 an
400-600 €
Île-de-France, France
📢 Poste à pourvoir – Tech Lead Data GCP/Python (H/F) Bonjour à tous 👋 Je recherche un(e) Tech Lead Data Senior pour intervenir sur une mission stratégique autour d’une Data Platform moderne orientée Cloud & innovation 🚀 🎯 Contexte Dans le cadre d’un programme de transformation ambitieux, vous intégrerez une Data Factory en charge de : Construire et faire évoluer une plateforme data cloud Industrialiser les workflows data Déployer des solutions innovantes autour de la data et de l’automatisation Diffuser les bonnes pratiques data au sein des équipes 👉 Environnement dynamique avec une forte culture produit et innovation 🚀 Missions principales : Concevoir et développer des data products (jusqu’à 80% de dev) Participer au cadrage technique et aux études d’impact Mettre en place des architectures data robustes et scalables Assurer la qualité du code (review, bonnes pratiques) Accompagner et challenger les Data Engineers Gérer les incidents complexes (niveau 3) Documenter les solutions (architecture, flux, data models) 🛠️ Stack technique : Langages : Python, SQL, Shell Data & Cloud : GCP (BigQuery, Dataflow, Cloud Storage), DBT Streaming / ingestion : Kafka, Kafka Connect, SFTP DevOps / CI-CD : Docker, Kubernetes, Terraform, GitLab BI / Restitution : Looker + Bonus : Automatisation / IA (n8n, outils GenAI) ✨ Les + Projet structurant avec forte visibilité Environnement moderne (Cloud, Data, IA) Forte autonomie et impact technique Équipe orientée innovation ⏱️ Mission 📅 Démarrage : ASAP 📌 Télétravail : 50% 📍 Localisation : Île-de-France
Freelance
CDI

Offre d'emploi
Data Analyste

OCTOGONE
Publiée le
Data analysis

1 an
Brive-la-Gaillarde, Nouvelle-Aquitaine
Basé à Cholet (49) ou Brive la Gaillarde (19) Description Principales responsabilités de l’offre : > Collecter, structurer et modéliser les données issues des différents systèmes industriels (ERP, MES, etc.) ; > Définir et construire des modèles de données adaptés aux besoins de reporting et d’analyse ; > Concevoir et maintenir des dashboards dynamiques sur Power BI (ou tout autre outil équivalent de data visualisation) afin de restituer les indicateurs clés de performance (KPI) aux équipes métiers ; > Participer à la mise en place de flux de données automatisés via des outils ETL (Talend de préférence) pour garantir la fiabilité et la disponibilité des informations ; > Accompagner les équipes opérationnelles dans la compréhension et l’utilisation des analyses produites ; > Identifier les axes d’amélioration, proposer des solutions innovantes et contribuer à la transformation digitale du site industriel ; > Rédiger la documentation des modèles, processus et outils déployés.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

3252 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous