L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 387 résultats.
Offre d'emploi
Expert NiFi (H/F)
OMICRONE
Publiée le
Apache NiFi
Big Data
DevOps
2 ans
40k-45k €
400-500 €
Île-de-France, France
Expert NiFi (H/F) Dans le cadre d’un projet data, nous recherchons un Expert Apache NiFi pour intervenir chez l’un de nos clients. 🔍 Profil recherché : Expérience confirmée sur Apache NiFi Mise en place et optimisation de flux de données Bonne maîtrise des concepts ETL / ingestion / transformation Expérience sur des environnements data (Big Data / Data Platform) Connaissances en SQL et scripting (Python, Shell…) 🤝 Qualités attendues : Autonomie et proactivité Capacité à travailler en équipe Esprit d’analyse 📍 Mission longue – démarrage ASAP
Offre d'emploi
Développeur Python - Data & Automation
VISIAN
Publiée le
Python
1 an
Paris, France
Contexte Développeur en charge de la gestion des scripts internes, de l’intégration de LLM et des tâches d’automatisation sur les flux de données et les processus, ainsi que des interactions API avec des sources externes. Mise en place de contrôles et de rapports sur la qualité des données. Contribution au développement des outils internes de l’équipe, tels que les processus de communication (mailing de masse), site web, planification d’équipe, etc. Objectif : Un développeur senior avec une solide compréhension des projets pilotés par les données, de l’automatisation, des référentiels IT et des exigences de gestion de services, pour travailler sur le développement interne de pipelines d’intégration et d’interfaces dans l’écosystème d’une grande banque d’investissement. Périmètre : Global, rôle exigeant une collaboration avec les clients internes de la banque d’investissement à l’échelle mondiale, nécessitant un anglais professionnel.
Mission freelance
Data Platform Engineer - Metadata
CAT-AMANIA
Publiée le
Databricks
FastAPI
Github
1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)
Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Offre d'emploi
(H/F) Consultant Infor M3 Finance
ADSearch
Publiée le
80k-90k €
Lyon, Auvergne-Rhône-Alpes
en bref: Consultant Infor M3 - 70-90K€ - Lyon Adsearch, cabinet de conseil en recrutement, vous propose un poste de Consultant Infor M3 Finance (h/f) chez son client intégrateur d’ERP. Poste : Vous rejoignez un intégrateur spécialisé sur plusieurs ERP dont Infor M3. Cette société assez jeune (10 ans) connaît une très belle croissance et a besoin de se renforcer sur la partie Finance Infor M3. En tant que Consultant(e) expérimenté(e) vous serez l’un des précurseurs du développement de l’activité Infor M3. En vous appuyant sur l’équipe vos missions seront : - fournir conseils, recommandations et assistance aux équipes financières des clients - participer aux projets de mise en œuvre complet, en collaboration avec les clients : recueil des besoins, analyse, conception, tests, mises en production des applications Infor… - Apporter une valeur ajoutée aux projets clients grâce à votre connaissance approfondie des solutions et mises en œuvre Infor - Elaborer et exécuter des plans de tests - Tester les configurations logicielles et les solutions clients - former les key users Prévoir quelques déplacements nationaux pour les interventions client le nécessitant. Ce poste peut être basé sur Lyon (proche gare) comme sur Paris. Possibilité de télétravail 3 jours par semaine Vous serez régulièrement en clientèle pour les projets de déploiement. Possibilité d’évoluer au poste Chef de projet par la suite.
Mission freelance
Data Scientist – GenAI & RAG - Paris
Net technologie
Publiée le
AWS Cloud
Data science
GenAI
3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Offre d'emploi
AI Tech Lead – Data Architecture & Big Data (Python / Oracle / Angular)
Deodis
Publiée le
Agent IA
Angular
Big Data
1 an
40k-62k €
500-640 €
Île-de-France, France
En tant que Tech Lead IA & Data Architect , vous intervenez au sein de la DSI Groupe pour accompagner la mise en place de solutions innovantes autour de l’intelligence artificielle et de la data. Vous jouez un rôle central entre les équipes métiers et techniques, avec une double casquette : expertise technique et pilotage de projets . Dans un environnement international, vous contribuez à la conception, au développement et au déploiement de solutions data performantes, tout en garantissant leur qualité, leur sécurité et leur alignement avec les enjeux business. Analyser et comprendre les besoins métiers afin de proposer des solutions adaptées Concevoir et définir l’architecture technique des solutions Data & IA Piloter le développement et l’intégration des modèles d’intelligence artificielle Assurer la qualité, la performance et la sécurité des solutions mises en production Encadrer et accompagner les équipes techniques sur les sujets IA Gérer les priorités, les plannings et le suivi des livrables Assurer la communication et le reporting auprès des parties prenantes
Offre d'emploi
Data Scientist (parlant Japonais ou Coréen)
OBJECTWARE
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG
3 ans
40k-86k €
380-610 €
Île-de-France, France
Mission Concevoir et optimiser des systèmes de recherche intelligente basés sur l’IA générative (RAG) pour un SaaS métier, afin d’améliorer l’accès à l’information et la fiabilité des réponses. 🚀 Responsabilités Développer des pipelines RAG (embeddings, vector search, ranking) Optimiser la pertinence des résultats (precision, recall, MRR) Réduire les hallucinations des LLM Concevoir des architectures multi-agents via Semantic Kernel Industrialiser les modèles (API, intégration backend) 🧰 Stack IA : LLM, NLP, RAG, embeddings Cloud : Azure OpenAI Service Data : Azure Cosmos DB Backend : .NET 8, SignalR Front : React 5+ ans en Data Science / ML Expertise NLP / recherche sémantique Expérience en IA générative (RAG, LLM)
Offre d'emploi
Consultant Expert Finance sur S/4HANA (H/F)
Scalesys
Publiée le
Île-de-France, France
📋 RÉSUMÉ En tant que Consultant AMOA Finance S/4HANA, vous accompagnerez nos clients dans leurs projets de transformation digitale des processus financiers, en apportant votre expertise fonctionnelle et technique sur SAP S/4HANA. 🎯 MISSIONS Analyser et formaliser les besoins métiers des directions financières. Rédiger les spécifications fonctionnelles détaillées pour les évolutions SAP S/4HANA FI/CO. Participer à la conception des solutions et à l'intégration des modules. Organiser et exécuter les phases de recette fonctionnelle (tests unitaires, d'intégration, UAT). Assurer le support aux utilisateurs clés et la formation. Contribuer à la conduite du changement et à l'optimisation des processus financiers. Suivre et reporter l'avancement des activités. 📦 LIVRABLES Spécifications fonctionnelles générales et détaillées. Stratégies et plans de tests. Rapports de recette et de suivi des anomalies. Supports de formation et documentation utilisateur. Cartographies de processus cibles. Comptes-rendus de réunions et rapports d'avancement.
Offre d'emploi
Business Analyst IT – Data / BI – Finance de Marchés (H/F)
Amontech
Publiée le
Business Analyst
C#
Confluence
1 an
45k-50k €
500-550 €
Paris, France
🧠 Contexte Au sein d’une direction IT, vous intégrez une équipe dédiée à la data client en finance de marchés . Cette équipe développe des solutions de Business Intelligence permettant aux équipes Front Office (Global Markets) d’exploiter leurs données, notamment pour : Suivi de la rentabilité client (Client Contribution) Performance des équipes commerciales (Sales Credit) Analyse des hit ratios (RFQ) Suivi des interactions clients (CRM : meetings, contacts…) 🎯 Missions Au quotidien, vous interviendrez sur des activités de run et de projet : 🧩 Analyse & cadrage Recueillir et analyser les besoins métier Rédiger les spécifications fonctionnelles 🧪 Tests & validation Définir la stratégie de tests Rédiger les cas de tests Piloter les recettes et rédiger les PV de validation 📊 Suivi & coordination Maintenir le backlog à jour Suivre l’avancement des sujets Coordonner les différents intervenants (IT & métier) 🛠 Support Gérer des incidents de niveau 2 Analyser des problématiques sur : IHM dashboards BI bases de données (requêtes SQL) 🔄 Change management Accompagner les utilisateurs Contribuer à l’adoption des solutions ⚙️ Méthodologie Participation active aux rituels Agile 🛠 Environnement technique Microsoft (SQL Server, SSAS, Power BI, .Net C#) Business Objects Jira, Xray, Confluence
Offre d'emploi
Cloud Data Engineer AWS H/F
VIVERIS
Publiée le
45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Mission freelance
MOA ALM / Trésorerie CIB
ABSIS CONSEIL
Publiée le
ALM
SQL
Trésorerie
1 an
500-550 €
Île-de-France, France
Dans un contexte de marché exigeant, une équipe IT spécialisée ALM / Trésorerie renforce ses effectifs afin d’accompagner le pilotage du risque de taux et de liquidité, activité stratégique et à forte criticité. Vos missions Intégré(e) à une équipe Front‑Office Tools, vous interviendrez sur des applications ALM critiques. À ce titre, vous serez chargé(e) de : L’analyse et le suivi des évolutions fonctionnelles et techniques, avec un fort enjeu de qualité et de conformité. La gestion des incidents majeurs (niveau 3), en coordination avec les équipes concernées. Environnement technique Environnement Technique Base de données : Oracle Applications web : Java J2EE Reporting : Business Objects / SQL (maîtrise requise – requêtes complexes)
Offre d'emploi
Scrum Master / Agile Master Data (F/H) - NIORT
K-Lagan
Publiée le
Agile Scrum
Big Data
Gestion de projet
1 an
40k-49k €
430-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Scrum Master / Agile Master Data (F/H) pour rejoindre l’un de nos clients, dans un environnement data innovant. 🔍 Contexte Vous interviendrez au sein de Feature Teams / Squads Data , travaillant sur des sujets tels que plateformes data, reporting, analytics, machine learning ou gouvernance des données . Votre rôle sera de garantir l’application des pratiques Agile et de faciliter la collaboration dans un environnement technique et métier exigeant. 🎯 Missions Accompagner les équipes Data dans l’adoption et l’amélioration des pratiques Agile Animer les rituels Scrum (daily, sprint planning, review, rétrospective) Faciliter la collaboration entre équipes techniques, métiers et stakeholders Lever les impediments et sécuriser l’avancement des squads Promouvoir une culture d’ amélioration continue Assurer un suivi des indicateurs Agile (KPI, vélocité, delivery…) Accompagner la transformation Agile à l’échelle si nécessaire
Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)
WorldWide People
Publiée le
Data science
9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Offre d'emploi
Consultant(e) Data – Expertise Dataiku (F/H)
Argain Consulting Innovation
Publiée le
Dataiku
120 jours
38k-48k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data – Expertise Dataiku (F/H) Vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de : Travailler à la fois comme Développeur Data, Business Analyst Data , et référent Dataiku, en jonglant efficacement entre plusieurs projets. Synthétiser les échanges (ateliers, COPRO) afin de partager les sujets clés, proposer des solutions adaptées, chiffrer les besoins et planifier les actions. Assurer le suivi des tâches, sprints et collaborations via JIRA. Concevoir, développer et maintenir des pipelines data end‑to‑end dans Dataiku , notamment avec des traitements en SQL et la connaissance de GCP Contribuer à l’amélioration continue des modèles de traitement, de la qualité des données et des processus métiers. Analyser les besoins des équipes métier, challenger les hypothèses et traduire les cas d’usage en solutions data robustes. Participer à l’animation des ateliers, COPIL/COPRO, et accompagner les équipes dans la bonne exploitation des outils data. Collaborer avec les équipes Data, IT, métiers et prestataires externes pour garantir l’avancement des projets. Assurer une documentation claire et la traçabilité des traitements Data. Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE, Mener et réaliser des projets associatifs (mécénat auprès de nos associations partenaires)
Mission freelance
101684/Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES
WorldWide People
Publiée le
Google Tag Manager
9 mois
400-440 €
Nantes, Pays de la Loire
Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES Mission dans le secteur de l'assurance qui consiste à intervenir sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery) pour optimiser l'exploitation des données dans un environnement agile (SAFe). La mission a lieu à Niort et ne peut pas être réalisée en distancielle mais permet 3 jours de télétravail. Activités confiées : - Collaborer avec l'équipe sur la définition des objectifs et KPI’s pour la mesure des fonctionnalités. - Accompagner la définition des besoins en tracking. - Recetter les données en phase de test des fonctionnalités. - Recetter les données après la mise en production des fonctionnalités. - Préparer et ingérer des données dans BigQuery (en Node JS). - Mettre à disposition des données fiabilisées dans Looker Studio. - Participer à l'analyse des données produites et en tirer des enseignements. - Optimisation et amélioration continue : - Veiller au bon fonctionnement de l'ingestion quotidienne des données et appliquer des correctifs si nécessaire. - Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train. - Gérer et optimiser les processus existants. - Analyse et communication : - Participer à l'analyse des données issues des monitoring pour en tirer des enseignements. - Participer à l'amélioration continue des tracking, des processus ou du fonctionnement de l'équipe. - Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features. La mission nécessite que le data Engineer soit autonome sur les technologies suivantes : - Script shell. - Python. - BigQuery. - JavaScript. - Piano Analytics (à créer à la place d'Adobe Analytics). - Looker Studio. - Google Tag Manager.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- J'ai lancé un outil IA pour automatiser la rédaction pro des freelances — vos retours ?
- Mission validée en freelance, ESN veut basculer en CDI : que faire ?
- profil effacé
- Etat du marché 2026: rebond ou stagnation ?
- Déclaration TVA suite dépassement plafond
- Nouveau volet social dans la déclaration d'impôts sur le revenu
5387 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois