Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 682 résultats.
Mission freelance
SAP MASTER DATA
KUBE Partners S.L. / Pixie Services
Publiée le
SAP
6 mois
Paris, France
Je cherche activement un consultant SAP Master Data,côté production, dans le cadre de la construction d'un core modele. Pour la phase de cadrage, design et conception : démarrage ASAP Tâches Base article et non article Fiche info achats Fiche info fournisseurs Nomenclature production Gamme de production Costing Migration avec interfaces PLM vers SAP basées sur des Idocs et LSMW Lien avec metier Leadership Compétences requises : Master Data SAP (min 5 ans exp) Expérience conception générale indispensable, paramétrage, custo Orienté best practice Langues : français et anglais mandatory
Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles
TS-CONSULT
Publiée le
Azure
Scikit-learn
1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
Mission freelance
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES
WorldWide People
Publiée le
Semarchy
12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Mission freelance
FREELANCE – Lead Analytics (H/F)
Jane Hope
Publiée le
Azure Data Factory
Azure Synapse
DAX
6 mois
450-550 €
Lille, Hauts-de-France
Notre client, basé à Lille (59), est à la recherche d’un Lead Analytics (H/F) freelance pour être le référent technique et le manager de proximité de la verticale Analytics au sein du département IA & Data. MISSIONS Vous vous placez au cœur de la chaine de valeur analytique : vous produisez, structurez, accompagnez la montée en compétences des équipes et de la plateforme data. Objectifs court terme : · Prendre en main l'équipe et établir une relation de confiance avec les Data Analysts dans les 3 zones géographiques · Auditer l'état du portefeuille analytique existant (rapports, dashboards, modèles de données) et comprendre les priorités · Livrer des cas d'usage analytiques à fort impact pour démontrer la valeur de la verticale. Objectifs long terme : · Contribuer à la feuille de route analytique alignée sur les priorités business et la stratégie Data & AI · Faire monter en maturité l'équipe sur les pratiques avancées d'analyse et l'usage de Microsoft Fabric / Power BI · Développer un modèle de self-service analytics fiable, gouverné et scalable pour les métiers · Établir un cadre de mesure de la valeur créée par la verticale (adoption, qualité, impact business) Responsabilités techniques : · Concevoir, développer et maintenir des modèles sémantiques et dashboards Power BI complexes · Produire des analyses et des requêtes avancées pour répondre aux questions business stratégiques · Assurer la qualité et la cohérence des données analytiques exposées aux métiers · Documenter les logiques de calcul, les sources et les définitions de métriques · Réaliser des revues de code et du pair-programming avec les Data Analysts de l'équipe Responsabilité managériale : · Animer l'équipe d’environ 7 Data Analysts répartis en Europe, Amérique du Nord et Russie · Conduire les entretiens individuels, fixer les objectifs et accompagner le développement professionnel · Piloter le cycle d'évaluation annuelle de l'équipe (performance, développement, plan de progression) · Assurer la montée en compétence des équipes sur les outils et pratiques analytiques (Microsoft Fabric, Power BI, DAX) · Gérer le budget de la verticale Analytics et en assurer le suivi · Gérer la relation avec les fournisseurs et partenaires externes liés aux outils et services analytiques · Représenter la verticale Analytics dans les instances de gouvernance du département AI & Data · Coordonner avec les autres verticales (Data Platform, Data Delivery, Data Governance) pour fluidifier les livraisons ENVIRONNEMENT TECHNIQUE · Microsoft Fabric : PowerBI, Lakehouse, Onelake · DAX, Power Query · SQL · Azure Data : Azure Data Lake, Synapse
Mission freelance
101528/Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES
WorldWide People
Publiée le
Semarchy
12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Mission freelance
Data Analyst Confirmé H/F
AGH CONSULTING
Publiée le
Data visualisation
Hadoop
MySQL
6 mois
200-400 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un Data Analyst Confirmé afin d'accompagner la mise en oeuvre de cas d'usage métiers à forte valeur ajoutée, dans un environnement Big Data. A ce titre, vos missions principales seront les suivantes : -Identifier, concevoir et implémenter des cas d'usage métiers basés sur le croisement et l'analyse de données (ciblage, analyses exploratoires, datascience). -Développer et maintenir des produits DATA réutilisables (pipelines, scripts, datasets). -Exploiter les données via des traitements distribués sous environnement Hadoop. -Concevoir et publier des reportings et dashboards Power BI (datasets, dataflows, rapports). -Produire des présentations synthétiques (PPT) des résultats d'analyses. -Garantir le respect des standards, bonnes pratiques et normes DATA. -Accompagner les équipes métiers dans l'exploitation et l'acculturation à la donnée. Livrables attendus : -Programmes DATA industrialisés sous plateforme Big Data -Jeux de données et dataflows Power BI -Tableaux de bord et rapports de datavisualisation -Supports de restitution et présentations des études réalisées Environnement technique : -Plateforme : Hadoop (Cloudera) -Langages : Python, PySpark, SQL -Outils de restitution : Power BI
Offre d'emploi
Business analyst / Data scientist IA gen (RAG)
PARTENOR
Publiée le
Data science
RAG
Rédaction des spécifications fonctionnelles
1 an
Paris, France
Dans le cadre d'une création de poste chez l'un de nos clients grands comptes dans le secteur bancaire, nous recherchons un(e) business analyst confirmé avec une expérience en tant que data scientist sur des systèmes RAG. Vous travaillerez sur des sujets d'IA et d'IA générative et notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative RAG (Retrieval Augmented Generation). Vos missions principales : - Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists - Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées - Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration - Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme - Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets - Suivre la production afin de garantir la satisfaction du client
Mission freelance
POT8991 - Un Data Analyst Sur Massy
Almatek
Publiée le
Python
6 mois
270-400 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Sur Massy. Maîtrise parfaite du SQL et d'au moins un langage de programmation (Python, R). Maîtrise d'outils de datavisualisation avancés (Tableau, Looker Studio). Maîtrise des bonnes pratiques de code: test de cohérence, commentaires, documentation, etc Excellente rigueur: capacité à gérer une tâche détaillée et cadrée dans un ticket Jira de A à Z en respectant tous les points spécifiés capacité à documenter l’ensemble de ses rendus: périmètre d’analyse (période, type d'agrégation, etc), documentation technique et fonctionnelle de façon à ce que toute personne dans l’équipe puisse reprendre facilement ses analyses Expérience avec l’environnement GCP préférable (BigQuery notamment) Expérience avec des bases de données volumineuses (Big Data) et des outils associés (Hadoop, Spark) est un plus. Connaissance des techniques de machine learning est un plus Compétences analytiques : Excellente rigueur et capacité à gérer des projets complexes: capacité à prendre du recul sur la cohérence des analyses et sur les ordres de grandeurs Excellentes capacités analytiques, de résolution de problèmes et de pensée critique Capacité à construire des plans d'analyse détaillés et à gérer des tâches de A à Z incluant une proactivité dans la résolution de problèmes rencontrés Capacité à interpréter les résultats d'analyses complexes
Offre d'emploi
Data base administrateur (DBA) MongoDB
Sijo
Publiée le
AWS Cloud
Azure
Mongodb
3 ans
55k-75k €
500-700 €
Île-de-France, France
Nous recherchons un Data base administrateur (DBA) MongoDB dynamique et motivé pour rejoindre le cabinet Sijo. Sijo est un cabinet de conseil en IT spécialisé dans le secteur de la banque et de la finance. Nous accompagnons nos clients dans leurs réalisations de projets techniques, ainsi que nos consultants dans leurs projets de carrière. Nous sommes un cabinet référencé auprès de la Société Générale, la BNP, la Banque Postale, le Crédit Agricole, Engie Trading et Natixis. Nous sommes référencé « Top vendeur » auprès de la Société Générale, ce qui signifie que nous faisons partie de leurs 40 1er fournisseurs. Le candidat idéal aura une expertise en gestion de base de données avec la technologie MongoDB et une bonne connaissance sur Azure et AWS.
Mission freelance
DATA SCIENTIST
Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Mission freelance
DATA ANALYST
Geniem
Publiée le
Python
6 mois
Lille, Hauts-de-France
Data Analyste Le domaine Search& et Publication recherche un/une data analyst pour mener à bien des projets de data analyse et de dashboarding Objectif global du projet : Accompagner le métier Search& Publication en réalisant des études statistiques, des explorations de données et en construction des Dashboards Contrainte forte du projet GCP + PowerBI + Connaissance Web Les livrables sont Analyses statistiques Compétences techniques : Python, SQL - Confirmé - Impératif Dashboards (Power BI + Data Studio) - Confirmé - Impératif Connaissance données Web - Confirmé - Impératif Google Cloud Platform - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Mission : - accompagner et challenger le métier - être force de proposition sur des solutions adéquats et innovantes pour répondre aux problématiques métiers - réaliser des analyses statistiques préparatoires - réaliser des dashboards clairs et synthétiques - être pédagogue & autonome - communiquer, partager avec les autres interlocuteurs de la direction IT (data scientists, chef de projets et data ingénieurs) - savoir communiquer & restituer des résultats concrets SA MISSION : Mettre en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données. SES LIVRABLES : - Modèle et structuration des données - Algorithme / Méthode statistique
Offre d'emploi
DATA ANALYSTE DATASCIENCE SENIOR
KEONI CONSULTING
Publiée le
Data analysis
Python
SQL
18 mois
40k-45k €
400-550 €
Gradignan, Nouvelle-Aquitaine
CONTEXTE Nous recherchons pour notre client un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ . Fort d'une expérience DATA, le prestataire devra également montrer une appétance particulière dans le domaine fonctionnel MISSIONS - Mise en oeuvre de cas d'usage métiers par croisement de la donnée ( ciblage , analyse de donnée ou datascience ) - Développement et maintenance de produits DATA réutilisables - Publication des résultats d'analyse avec de la DATAVIZ - Respect des normes et bonnes pratiques au sein de l'équipe - Accompagnement et acculturation des équipes métiers ou autres" Définition des prestations attendues : Prestation d'analyse DATA et DATASCIENCE Préciser la technologie ou les certifications attendues : Python, Pyspark,SQL,Dataviz, Datascience " Livrables attendus "Programme DATA sous plateforme DATA Dataviz Présentation PPT de resultats d'etude Environnement technique - technologique "Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports) Compétences techniques attendues Connaissances en environnement BIG DATA ( python , Pyspark) Requêtage SQL Exposition des données par DATAVIZ Experience en analyse DATA et projet de DATAscience
Offre d'emploi
Data Analyst - Data Scientist
VISIAN
Publiée le
IA
Machine Learning
Natural Language Processing (NLP)
1 an
40k-45k €
400-670 €
Île-de-France, France
🎯 Mission principale Au sein d’une organisation spécialisée dans la data et les solutions de paiement, vous contribuez à la mise en place de projets décisionnels et Big Data en collaboration avec les équipes métiers et IT. 🧩 Responsabilités principales Contribuer à des projets décisionnels et Big Data. Participer à l’animation d’ateliers et de groupes de travail avec les utilisateurs et équipes techniques. Recueillir et analyser les besoins métiers. Concevoir et développer des reportings décisionnels : définition d’indicateurs statistiques, qualité et financiers Réaliser des analyses exploratoires de données. Rédiger la documentation projet : spécifications fonctionnelles et techniques cahiers de tests et de recette Participer aux phases de validation et de recette. Former et accompagner les utilisateurs finaux.
Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)
Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data
2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Mission freelance
Data Scientist Senior
NEOLYNK
Publiée le
Python
SQL
3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Mission freelance
Service Delivery Manager – Plateforme DATA / IA
KatchMe Consulting
Publiée le
SLA
6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1682 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois