Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 935 résultats.
Freelance

Mission freelance
Développeur / Lead IA Générative

HAYS France
Publiée le
IA Générative
LangChain
Python

3 ans
100-420 £GB
Lille, Hauts-de-France
Objectifs de la mission & Livrables attendus🔧 Objectifs Concevoir, développer et optimiser un agent IA génératif dédié au shopping. Intégrer des frameworks agentiques modernes (LangChain, LangGraph…). Structurer et exploiter une base vectorielle pour supporter le RAG. Garantir une mise en production robuste et scalable du système. Superviser la cohérence, la qualité et les performances de l’agent via des outils dédiés (Ragas, MCP, métriques internes…). Accompagner les équipes internes (data, digital, produit) sur les aspects techniques et méthodologiques. 📦 Livrables Audit technique complet (architecture existante, données, risques, opportunités). Recommandations stratégiques et opérationnelles pour le choix des modèles, frameworks et architecture cible. Développement informatique / Data Science : Développement du chatbot agentique Pipelines de données Mise en place du RAG Intégration dans les systèmes Boulanger Documentation technique (architecture, APIs, workflows agentiques, MLOps). Évaluation & tests (via Ragas, MCP ou outils équivalents). Support au déploiement en production et au monitoring post-lancement.
Freelance

Mission freelance
POT9097 - Un Développeur python expert en Île-de-France

Almatek
Publiée le
Python

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, Un Développeur python expert en Île-de-France. Profil: Concepteur Développeur - Python A partir de 7 ans d’expérience, anglais bon niveau Profil développeur expert python (avec connaissance en IA) avec une SOLIDE expérience en développement, migration et évolutions d’applications reposant sur Python dans environnement IBM Cloud. Ancienne mission dans un groupe bancaire serait appréciée. Almatek recherche pour l'un de ses clients, Un Développeur python expert en Île-de-France. Profil: Concepteur Développeur - Python A partir de 7 ans d’expérience, anglais bon niveau Profil développeur expert python (avec connaissance en IA) avec une SOLIDE expérience en développement, migration et évolutions d’applications reposant sur Python dans environnement IBM Cloud. Ancienne mission dans un groupe bancaire serait appréciée.
Freelance
CDI

Offre d'emploi
Product Owner Data / IA

VISIAN
Publiée le
Agile Scrum
Microsoft Power BI
Product management

1 an
Paris, France
Contexte : Pilotage de produits analytics destinés aux équipes commerciales, avec un fort enjeu de valeur métier, d’adoption et de fiabilité des données. Activités principales • Définir la vision produit analytics et construire la roadmap. • Recueillir, cadrer et challenger les besoins métiers. • Prioriser le backlog et arbitrer selon la valeur business. • Rédiger les user stories data et critères d’acceptation. • Piloter le delivery des équipes analytics / BI. • Animer les rituels agiles (refinement, planning, reviews). • Suivre l’adoption, l’usage et l’impact business des produits data. • Garantir la qualité, la cohérence et la documentation des indicateurs. • Accompagner les équipes métiers dans l’utilisation des solutions analytics.
Freelance

Mission freelance
Consultant BI / DataViz Senior

CAT-AMANIA
Publiée le
Microsoft Power BI
Modélisation
PostgreSQL

9 mois
360-510 €
Lyon, Auvergne-Rhône-Alpes
Description du poste Dans le cadre de l’application iPilot (BI de la Chaîne Communicante du Marché d’Affaires), vous intervenez en tant que Consultant BI / DataViz afin de consolider, analyser et restituer des données à forte volumétrie. Vous contribuez directement au pilotage de la performance via la conception de dashboards et l’analyse des indicateurs, en lien étroit avec les équipes métiers et techniques. Missions principales Analyser les besoins métiers et traduire les attentes en solutions BI pertinentes Concevoir, développer et optimiser des dashboards (Tableau / Power BI) Modéliser et structurer les données (datawarehouse / datamarts) Consolider et fiabiliser des données issues de multiples sources Analyser les indicateurs de performance et expliquer les variations Identifier des axes d’amélioration et proposer des optimisations data-driven Interagir avec les parties prenantes (métiers / IT) pour affiner les usages Contribuer à l’amélioration continue des outils de pilotage
Freelance

Mission freelance
Data Engineer Snowflake (Migration SAP / BW)

VISIAN
Publiée le
Snowflake

3 ans
400-550 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre d’un programme stratégique de modernisation du système décisionnel, une organisation internationale engage la migration de ses données depuis un environnement SAP BW vers une plateforme Cloud Data moderne basée sur Snowflake. Vous intégrerez une équipe Data d’une dizaine de personnes dédiée à la migration, à l’industrialisation des flux et à la mise en place d’une architecture data scalable, performante et sécurisée. Missions Concevoir et développer des pipelines d’ingestion et de transformation de données depuis SAP et SAP BW vers Snowflake Garantir la qualité, la cohérence et la sécurité des données durant tout le processus de migration Collaborer avec les équipes métiers et IT afin de comprendre les besoins fonctionnels et adapter les solutions data Optimiser les performances des flux et assurer leur scalabilité dans l’environnement Snowflake Participer à la documentation technique et à la mise en place des bonnes pratiques Data Engineering Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration Participer aux échanges techniques au sein de l’équipe projet Livrables attendus Pipelines de données fiables et industrialisés Modèles de transformation optimisés Documentation technique des flux et architectures Recommandations d’optimisation et d’amélioration continue Environnement technique Obligatoire : Snowflake dbt Apache Airflow SQL Python SMP Apprécié : SAP SAP BW
CDI

Offre d'emploi
Développeur Python (H/F)

█ █ █ █ █ █ █
Publiée le
Application web
Docker
Java

35k-45k €
Orsay, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F

Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)

6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
CDI

Offre d'emploi
Développeur Python H/F

█ █ █ █ █ █ █
Publiée le
Apache Kafka
DevOps
Docker

Clermont-Ferrand, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Développeur Senior Python sector Assurance Paris/su

WorldWide People
Publiée le
Python

6 mois
400-450 €
Paris, France
Développeur Senior Python sector Assurance Paris Aujourd’hui, plusieurs développeurs Python seniors disposant d’une dizaine d’années d’expérience interviennent déjà sur ce projet. Nous recherchons donc un profil encore plus expérimenté, capable d’apporter une vision globale, de challenger l’existant et de proposer une véritable expertise technique. Ci dessous le besoin : Conception & Développement Backend Développer des fonctionnalités backend complexes en Python (APIs, services, moteurs de calcul, pipelines). Concevoir des architectures modulaires, performantes et maintenables. Optimiser les performances : temps d’exécution, consommation, robustesse, gestion d’erreurs. Data & Traitement avancé Intégrer et manipuler des données issues de différents environnements (bases SQL/NoSQL, data lakes, APIs). Développer des scripts d’automatisation, de transformation ou de scraping avancé. Participer à la mise en place ou l’évolution de pipelines Data/ETL. Qualité & Bonnes pratiques Écrire un code propre, testé, documenté, conforme aux normes (tests unitaires, CI/CD). Améliorer en continu l’existant : refactoring, gestion technique de la dette, optimisation. Participer activement aux revues de code et partager les bonnes pratiques. Intégration DevOps Contribuer aux chaînes CI/CD (GitLab, Jenkins, GitHub Actions…). Packager et déployer les applications (Docker, Kubernetes, OpenShift selon contexte). Travailler étroitement avec les équipes Cloud (AWS / Azure / On-prem) pour assurer la cohérence des environnements. Expertise & Support Technique Accompagner les développeurs moins expérimentés, apporter du mentorat technique. Challenger les décisions d’architecture et proposer des solutions pertinentes. Analyser et résoudre les incidents complexes, optimiser les flux et performances. Le client est très exigeant ; le profil recherché doit être résolument technophile, avec une véritable culture du développement et, idéalement, des compétences en IA.
Freelance

Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)

Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT

24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
Freelance
CDI
CDD

Offre d'emploi
🚀 Développeur C# Dot Net, SQl, Python, Angular et/ou React

Gentis Recruitment SAS
Publiée le
.NET
C#
Python

1 an
Nanterre, Île-de-France
Dans un contexte de forte croissance des livraisons applicatives, nous recherchons un Développeur Full Stack orienté QA & IA afin de renforcer une équipe technique au sein d’un environnement exigeant. Rattaché à une équipe en charge de la qualité applicative, vous interviendrez sur la mise en place et l’amélioration continue d’un framework global d’assurance qualité couvrant l’ensemble de la chaîne applicative . Vos missions principales incluent : 🔹 Automatisation & scripting Développer et maintenir des scripts de tests automatisés Faire évoluer les frameworks de tests existants Automatiser les tests applicatifs et batch Intégrer les tests dans les pipelines CI/CD 🔹 Intelligence artificielle (IA générative) Réaliser des Proof of Concept (POC) rapidement industrialisables Utiliser l’IA pour : Générer des cas de tests Analyser les anomalies Optimiser la couverture de tests Contribuer à des initiatives d’amélioration continue autour du test intelligent 🔹 Assurance qualité Analyser les spécifications fonctionnelles et techniques Concevoir et rédiger des cas de tests Exécuter les campagnes de tests (fonctionnels, intégration, non-régression) Identifier, qualifier et documenter les anomalies Vérifier la conformité des applications vis-à-vis des exigences métier et réglementaires Participer aux phases de recette
Freelance

Mission freelance
Business Analyst Data Platform / Databricks Connaissance SAP

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Databricks
SAP FICO

12 mois
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un client basé à Lyon un Freelance Data Engineer / Data Platform Consultant pour intervenir au cœur d’un environnement Data stratégique basé sur Databricks . 🎯 Contexte de la mission Vous jouerez un rôle clé à l’interface entre les métiers (Qualité, Usines, Finance, Opérations…) et la plateforme Data. Votre objectif : faciliter l’exploitation de la donnée en traduisant les enjeux métiers en solutions analytiques concrètes. 🚀 Vos responsabilités ✅ Recueil & traduction des besoins métiers Comprendre les problématiques opérationnelles Transformer les besoins en cas d’usage analytiques ✅ Data Engineering & Gouvernance Identification des sources (SAP ERP, MES Apriso, CRM…) Nettoyage, transformation et structuration des données Garantie de la qualité et de la cohérence Respect des process de gouvernance ✅ Analyse & Valorisation Analyses descriptives, exploratoires, prédictives SQL, Python, R… Identification de leviers d’optimisation ✅ DataViz & Storytelling Création de dashboards (Power BI, Tableau, Qlik…) Restitution claire et orientée décision Construction de véritables “data stories” ✅ Accompagnement à la décision Recommandations opérationnelles Définition & suivi des KPIs Mesure d’impact
CDI

Offre d'emploi
Data Engineer - GCP - CDI

Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery.  Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins  Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Freelance

Mission freelance
Data Analytics Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI
Python

6 mois
Paris, France
Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. Analyser et interpréter des données complexes afin d’en extraire des insights actionnables. Collaborer avec des équipes transverses pour identifier et résoudre les défis liés aux données. Développer et maintenir des pipelines de données, des modèles et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. Fournir une expertise technique et un accompagnement aux parties prenantes pour favoriser la prise de décision basée sur les données
Freelance
CDI

Offre d'emploi
Commando-Ingénieur financier Produits structurés / Python

Digistrat consulting
Publiée le
Finance
Python

3 ans
40k-60k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Equipe est en charge des configurations des produits exotiques dans la chaine full automatique (Pricing, Booking, Documentation). La prestation consiste à contribuer à/au(x): - Ajouts de nouveaux produits dans la chaine automatique - Faire évoluer les produits existants (ajout de variations) Expertises spécifiques :  Code (Python)  Produits financiers EQD Exotiques Les livrables attendus sont :  Modelisation des produits/ templates exotiques equity dans les chaines automatiques
Freelance

Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow

Celexio
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
935 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous