Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 575 résultats.
Freelance

Mission freelance
Data Product Manager

K2 Partnering Solutions
Publiée le
Data management

1 an
Paris, France
Notre client recherche un(e) Data Product Manager afin de renforcer ses équipes. L’objectif est de concevoir, structurer et développer un portefeuille de produits et de plateformes data répondant aux besoins métiers du domaine Mobility, tout en respectant les standards et les guidelines en matière d’architecture Data & Analytics définis par le client. Priorités pour 2026 : Migration vers une plateforme data Cloud Migration de MicroStrategy vers Power BI Prise en charge des besoins métiers continus dans les domaines : Sales Finance Manufacturing Supply Chain Purchasing Compétences attendues : Excellente communication en français et en anglais Compétences en analyse de données (exploratoire) et modélisation de données Bonne compréhension du cycle de vie complet de la donnée (de la source à la visualisation) Vision globale des produits Data & BI dans leur périmètre Connaissance des données ERP (SAP) et des principes de Master Data Management Rigueur dans les méthodes d’analyse, de cadrage et d’organisation Forte orientation client Esprit d’équipe Début : Mai 2026 Location : Paris (3 jours sur site/ 2 jours télétravail) Langues : Français et Anglais
Freelance

Mission freelance
Data Scientist – Remote Sensing & Deep Learning (AgTech)

Intuition IT Solutions Ltd.
Publiée le
Python

3 mois
Toulouse, Occitanie
Contexte Dans le cadre d’un projet stratégique pour un client du secteur spatial/agricole, nous recherchons un Data Scientist expérimenté afin de reprendre et poursuivre des travaux en cours autour de la détection d’objets à grande échelle via imagerie satellite. La mission s’inscrit dans un environnement à forte dimension technique, combinant Computer Vision, traitement de données géospatiales et passage à l’échelle. Missions Reprise et amélioration de modèles de Computer Vision appliqués à l’imagerie satellite Implémentation et optimisation de modèles de segmentation d’instance et détection (type Mask R-CNN, U-Net) Traitement et fusion de données multi-sources ( optique Sentinel-2 & radar Sentinel-1 / SAR ) Industrialisation des pipelines de traitement et passage à l’échelle sur de larges zones géographiques (US, Brésil, Europe) Contribution aux bonnes pratiques MLOps (tracking, reproductibilité, déploiement) Déploiement et optimisation des modèles dans un environnement AWS
Freelance

Mission freelance
Développeur Python connaissances IA (H/F)

Insitoo Freelances
Publiée le
Large Language Model (LLM)
Python

2 ans
400-460 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Python connaissances IA (H/F) à Lyon, France. Contexte : 3 jours sur site par semaine Les missions attendues par le Développeur Python connaissances IA (H/F) : Mission : Concevoir et développer des solutions d'intelligence artificielle (LLM, Agents, RAG) Reprendre et optimiser les use-cases existants Développer les nouveaux use-cases selon la roadmap définie en respectant les engagements de timing Assurer la qualité et la maintenabilité du code (méthodologie, qualité de code, couverture de tests, documentation) S'inscrire dans le cadre des bonnes pratiques de l'équipe (code reviews, guidelines) et participer à leur promotion Profil recherché Python : 3 ans d'expérience minimum Développement : 5 ans d'expérience sur des projets significatifs IA/LLM : expérience projet souhaitée (intégration d'APIs LLM, développement de solutions RAG, agents, etc.) Compétences appréciées (un plus) Fibre DevOps / expérience de développement augmenté (CI/CD, conteneurisation) Connaissance des frameworks LLM (LangChain, LlamaIndex, etc.) Autonomie, fibre consultant au service du métier, proactivité, rigueur Environnement technique Python, LLM (OpenAI, Anthropic), RAG, Agents, Azure (Container Apps, AI Services), MongoDB
Freelance

Mission freelance
Senior Data Engineer

Signe +
Publiée le
DBT

12 mois
400-580 €
Vélizy-Villacoublay, Île-de-France
🎯 MISSIONS Concevoir et déployer des pipelines ETL/ELT performants (complets, incrémentaux, historiques) Construire et maintenir des Data Warehouses, Data Marts et cubes décisionnels Intégrer des données via API, transferts de fichiers, Data Lakes Optimiser les performances SQL et gérer les incidents en production Contribuer aux phases de cadrage / data discovery avec les parties prenantes Appliquer les bonnes pratiques dev, tests et déploiement en Agile Livrables attendus : Composants data développés et déployés (code source) Documentation technique et fonctionnelle Modèles de données documentés Rapports de tests/recette + transfert de connaissances 🛠️ ENVIRONNEMENT TECHNIQUE Obligatoire : SQL Server (Database Engine, SSIS, SSAS) Power BI / Reporting Services SQL avancé, DAX, MDX Talend et/ou SSIS (ADF apprécié) CI/CD : Azure DevOps, GitLab Architecture : Data Warehouse, Data Lake, Médaillon Apprécié : DBT, Trino, MinIO GCP (BigQuery, GCS, Dataproc) 👤 PROFIL RECHERCHÉ Senior Data Engineer avec expertise confirmée Microsoft SQL Server Expérience solide en ETL industrialisé (Talend / SSIS) Bonne maîtrise des architectures data modernes Anglais courant indispensable Méthode Agile maîtrisée
Freelance
CDI

Offre d'emploi
Data Engineer TERADATA ET DATAVIZ

WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)

12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions sous technologie Teradata, en étroite collaboration avec les autres membres de la squad et de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage, traitement et usages, mise à disposition : une expérience des environnements Unix, une forte expertise SQL et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous interviendrez à la fois sur des activités projet mais aussi sur du RUN (suite des traitements de production, analyse/résolution d’incidents, optimisations, amélioration continue). Ces interventions sont primordiales, chaque membre de la squad participe au traitement des incidents et à l’amélioration continue du périmètre applicatif.
Freelance
CDI

Offre d'emploi
Data Scientist

ONSPARK
Publiée le
Cloudera
Hadoop
Python

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Scientist pour accompagner nos clients grands comptes. Vous travaillerez sur des données massives et complexes, et contribuerez à des cas d'usage à fort impact : modèles de prévision, simulateurs, analyses statistiques avancées, détection de tendances, dans un environnement Big Data on-premise (Cloudera CDP, Cloudera Machine Learning) avec accès à des IDE modernes (Jupyter, RStudio, VSCode). Responsabilités Concevoir et entraîner des modèles de Machine Learning et Deep Learning Analyser des jeux de données complexes et volumineux Collaborer avec les Data Engineers pour la mise en production des modèles Accompagner les équipes métier dans l'interprétation des résultats Contribuer aux cas d'usage IA et NLP de la plateforme
Freelance
CDI

Offre d'emploi
Data Architect

ONSPARK
Publiée le
Cloudera
Hadoop

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Architect pour accompagner nos clients grands comptes. Responsabilités Concevoir et faire évoluer l'architecture globale de la plateforme de données Définir les standards et bonnes pratiques de modélisation Accompagner les équipes techniques dans leur mise en œuvre Assurer la cohérence entre les besoins métier et les choix techniques Veiller à la sécurité et à la conformité des architectures (RGPD, ISO 27001)
Freelance
CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering

1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
Lead Data Architecte (Convergence & MDM)

Pickmeup
Publiée le
.NET
Master Data Management (MDM)
PostgreSQL

3 mois
800-950 €
Paris, France
Le groupe est un acteur majeur de l'AdTech qui a récemment finalisé l'acquisition de deux entités stratégiques en 2025. L'enjeu actuel est de piloter la convergence technique et fonctionnelle de trois écosystèmes distincts vers une plateforme unique et cohérente. Le défi ne réside pas seulement dans la migration technique, mais dans l'unification de périmètres fonctionnels fragmentés pour couvrir l'intégralité du cycle de vie de l'investissement média Missions principales Sous la responsabilité du CTO, vous serez l'architecte et le garant de la nouvelle structure de données unifiée du groupe. Vos missions se décomposent en deux phases : 1. Conception de l'Architecture Cible (Vision Globale) Modélisation Unifiée : Concevoir un modèle de données cible couvrant l'ensemble du cycle média : budget, planning, achat, activation, facturation et audit. Stratégie d'Identité & Taxonomie : Définir une stratégie d'ID partagée et des taxonomies standardisées pour réconcilier trois systèmes aux structures et granularités hétérogènes. Modèle de Configurabilité : Concevoir un système permettant une haute personnalisation par client (hiérarchies spécifiques, règles métiers, champs optionnels) tout en préservant un cœur de données stable et robuste. Multi-tenant & Connectivité : Évaluer et choisir les meilleurs patterns d'isolation des données (tenancy) et définir les modèles d'échange avec les écosystèmes externes (DSPs, ERP, plateformes d'activation). 2. Mise en œuvre Opérationnelle (Focus Phase 1) Implémentation Hands-on : Contrairement à un rôle de pur conseil, vous participerez activement au développement de la première brique logicielle. Focus Media Planning : Piloter l'implémentation prioritaire du module "Planning" et des entités MDM associées dans un délai de 2 mois. Convergence MDM : Orchestrer la transition entre le Master Data Management (MDM) actuel de la maison mère (Snowflake/Python) et les systèmes acquis (SQL Server / .NET).
Freelance

Mission freelance
Architecte data

ESENCA
Publiée le
Architecture
Collibra
Gouvernance

1 an
Lille, Hauts-de-France
Objectif global Accompagner la conception et la mise en place de l’architecture Data. Contexte Projet à dimension internationale avec des contraintes fortes de conformité et d’alignement des données aux besoins métier. Description détaillée Le/la Data Architect intégrera la plateforme HRDP (Ressources Humaines) pour : Concevoir des modèles conceptuels de données par contexte métier Identifier les événements métier par contexte Définir et formaliser les Business Terms, Business Attributes et Business Events dans Collibra Définir les Indicateurs Clés de Performance (KPI) par contexte métier Définir les règles de qualité des Business Terms Analyser la conformité des API et des Data Sets avec l’architecture data Réaliser le data lineage Rédiger le dossier d’architecture data répondant aux besoins business exprimés dans le quarterly plan Participer à la data governance de la plateforme
Freelance
CDI

Offre d'emploi
Data Engineer Python & Power BI (H/F)

STORM GROUP
Publiée le
Microsoft Power BI
Python

3 ans
40k-55k €
400-500 €
Île-de-France, France
Au sein d’une équipe spécialisée en risque de contrepartie, vous contribuez au développement et à l’amélioration d’outils de suivi, d’analyse et de certification des métriques de risque. Vos missions : Développement et optimisation d’outils de reporting et d’analyse Python, Power BI Structuration et modélisation des données pour des usages BI Suivi et contrôle des métriques de risque et des dépassements Participation aux processus de certification et de fiabilisation des données Collaboration avec des équipes pluridisciplinaires (risque, IT, métiers)
Freelance

Mission freelance
Architecte sécurité réseaux Palo Alto (RUN / Production Critique), Anglais (H/F)

Octopus Group
Publiée le
Architecture
Palo Alto
Run

1 an
550-650 €
Montreuil, Île-de-France
Contexte technique : Dans un environnement multi-datacenters / multi-zones, vous intervenez en tant qu’architecte sécurité référent sur des infrastructures critiques basées sur les solutions Palo Alto Networks PAN-OS. Le périmètre couvre : plusieurs clusters de firewalls (HA A/P ou A/A) administration centralisée via Panorama plusieurs milliers de règles de filtrage forte volumétrie (flux applicatifs critiques, interconnexions SI sensibles) Missions détaillées : Architecture & Design Design et évolution d’architectures sécurité L3–L7 (segmentation, micro-segmentation) Revue des flux applicatifs et modélisation des politiques de sécurité Intégration de nouvelles zones de sécurité / onboarding applicatif Expertise Palo Alto : Administration avancée des firewalls Palo Alto Networks : Security Policies / NAT / QoS App-ID / User-ID / Content-ID Gestion et optimisation via Panorama (device groups, templates, commit strategies) Fine tuning des politiques (réduction rulebase, performance, sécurité) RUN / Production : Support N3 / N4 sur incidents critiques (troubleshooting avancé) Analyse de logs / traffic (ACC, CLI, packet capture) Diagnostic des problématiques réseau/sécurité complexes (latence, drop, asymétrie) Sécurité & conformité : Hardening des équipements Implémentation des best practices Palo Alto Audit sécurité et remédiation Contribution aux politiques de gouvernance sécurité Automatisation & industrialisation : Scripting (Python / API Palo Alto) Automatisation des déploiements (Ansible, Terraform) Intégration CI/CD des configurations réseau Orientation principale : RUN avancé + optimisation + sécurisation continue Environnement technique : Firewalls : Palo Alto (PAN-OS, Panorama) Réseau : BGP, OSPF, VRF, VLAN, MPLS Sécurité : IPS, URL filtering, WildFire, SSL Decryption Cloud : AWS / Azure (intégration firewall / VPC / VNets) Outils : Splunk / ELK / outils SOC
Freelance

Mission freelance
Business Analyst DATA/ AMOA - Lyon (Banque /Assurance)

ARGANA CONSULTING CORP LLP
Publiée le
Agile Scrum
AMOA
BI

12 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Au sein d’une équipe Agile , vous serez en charge de : 🔍 Analyse & cadrage Recueillir et analyser les besoins métiers Animer des ateliers avec les utilisateurs Rédiger les User Stories et contribuer au modèle de données / modèle d’entreprise Proposer des solutions fonctionnelles adaptées ⚙️ Conception & coordination Définir les solutions avec les développeurs Garantir la cohérence fonctionnelle et technique du SI Collaborer avec les architectes et urbanistes SI 📝 Documentation Rédiger et maintenir les spécifications fonctionnelles Produire les supports de présentation et comptes rendus 🧪 Tests & qualité Rédiger les cahiers de tests Réaliser les recettes fonctionnelles Qualifier les anomalies (recette, préproduction, production) Suivre les corrections jusqu’à livraison 🤝 Suivi Agile Participer aux rituels Agile (Daily, démo, etc.) Contribuer à l’amélioration continue 📦 Livrables attendus User Stories Spécifications fonctionnelles Modélisations de données Cahiers de tests Comptes rendus d’ateliers Rapports d’anomalies et suivi de correction
Freelance

Mission freelance
Architecte Data & IA – Plateforme & Socle

VISIAN
Publiée le
Azure
Azure DevOps
Databricks

1 an
400-550 €
Île-de-France, France
L’Architecte Data & IA intervient comme référent sur les choix techniques, la cohérence des architectures et l’industrialisation des usages Data/IA. Missions principales 1. Architecture & gouvernance technique Concevoir et maintenir les architectures cibles Data & IA (MLOps, LLMOps, DataOps) Garantir la cohérence globale de la plateforme Data & IA Contribuer à la mise en œuvre d’une gouvernance unifiée des données (sécurité, traçabilité, lineage) Superviser l’intégration et l’évolution d’une plateforme Data Lakehouse (type Databricks) Participer à l’évolution de l’offre de service du socle Data & IA 2. Industrialisation IA & MLOps Structurer les pratiques MLOps / LLMOps (CI/CD, monitoring, automatisation) Accompagner les équipes dans la mise en œuvre des bonnes pratiques DataOps et ML Garantir la fiabilité des pipelines de production IA Participer à la standardisation des modèles de déploiement IA 3. Innovation & plateforme IA Préparer la plateforme pour les usages d’IA générative et agentique Concevoir des architectures d’intégration pour les modèles LLM (internes et externes) Développer des approches AI by Design (conformité, sécurité, gouvernance) Contribuer aux initiatives d’innovation (observabilité IA, optimisation des coûts, temps réel) 4. Accompagnement & montée en compétences Encadrer les équipes DataOps et MLOps Diffuser les bonnes pratiques d’architecture et d’industrialisation Accompagner la montée en maturité sur les outils Data & IA Travailler en collaboration avec les équipes Data et Delivery Livrables attendus Architecture cible Data & IA unifiée Framework MLOps / LLMOps industrialisé (CI/CD, observabilité, MLFlow…) Guide de bonnes pratiques DataOps Tableau de bord de suivi de maturité IA / ML Recommandations d’évolution de la gouvernance Data & IA
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
575 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous