L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 750 résultats.
Mission freelance
Data Analyst / Expert PowerBI Senior (F/H)
Publiée le
1 an
400-550 €
Moissy-Cramayel, Île-de-France
Télétravail partiel
Data Analyst / Expert PowerBI - Freelance - Moissy-Cramayel - 400-550€/jour Contexte : Nous recherchons un Data Analyst Power BI pour une mission d’environ trois mois et demi. L’objectif est de développer et d’améliorer plusieurs outils de pilotage et d’analyse de données dans un contexte industriel complexe. Missions : Concevoir et mettre à jour des tableaux de bord Power BI à partir de données issues de différents systèmes internes. Structurer, fiabiliser et analyser des volumes importants de données afin d’identifier des tendances, alertes et axes d’amélioration. Mettre en place des courbes d’évolution, simulations et indicateurs personnalisés. Reprendre et corriger des tableaux de bord existants afin d’assurer la cohérence entre données sources et résultats affichés. Préparer des livrables clairs et documentés pour faciliter l’exploitation et la maintenance des outils développés. Collaborer avec les équipes métiers pour comprendre les besoins, recueillir les retours et ajuster les outils en conséquence. Compétences requises : Maîtrise avancée de Power BI : modélisation de données, mesures, visuels, automatisation, gestion de filtres. Solide expérience en traitement et structuration de données multidimensionnelles. Capacité à analyser des données techniques, détecter des signaux faibles et produire des indicateurs pertinents. Aisance dans la mise en forme de rapports et la présentation de résultats. Rigueur, autonomie, sens du détail et capacité à travailler avec des interlocuteurs variés.
Mission freelance
ARCHITECTE TECHNIQUE INFRASTRUCTURE / EXPERT DBA SQL SERVER & ORACLE
Publiée le
Infrastructure
Oracle
SQL
24 mois
300-600 €
Paris, France
Télétravail partiel
Nous recherchons un Architecte technique Infrastructure expert en bases de données ORACLE et SQL SERVER Le périmètre : - L'architecture DBA - Le N3 de la plateforme DBaaS MS SQL du Cloud Privé - Les migrations vers l'AD unique des offres de services DBA - L'optimisation et la gestion du licensing SQL Server - Migration de Bases de données Il applique les politiques de sécurité associées et gère les services associés. La mission principale est d'apporter une expertise autour des technologies DBA (MS SQL et Oracle) Il faudra définir l'architecture cible de l'offre de services et des architectures de bases de données Définir et apporter son support à la migration vers le nouvel AD Groupe. Assurer le support N3 de cette offre de service Participer au passage du support N1/N2 d'une équipe dédiée à l'international
Offre d'emploi
Chef de projet Data & BI H/F
Publiée le
IDT
39k-45k €
Auvergne-Rhône-Alpes, France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Chef de projet Data & BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la donnée, la BI et la conduite de projets décisionnels ? Ce poste est fait pour vous. En tant que Chef de projet Data & BI , vous êtes responsable du pilotage , du développement et du déploiement de notre écosystème : Côté build : Prendre en charge l’ensemble des phases projet : recueil & analyse des besoins métier, spécifications, développement et déploiement. Concevoir et modéliser les architectures décisionnelles (datawarehouse, datamarts, modèles relationnels). Développer et maintenir les dataviz dynamiques et intuitives (SAP BO, Need4Viz, Power BI, QlikSense). Mettre en œuvre et optimiser les flux d’alimentation ETL (SAP BODS souhaité). Réaliser les recettes techniques et fonctionnelles : TU, TNR, scénarios, tests de cohérence des données. Garantir la qualité, la cohérence et la sécurité des données dans le respect du RGPD Côté run : Assurer le suivi et la maintenance évolutive des solutions décisionnelles existantes. Diagnostiquer les problématiques data/BI et proposer des solutions pertinentes et performantes. Accompagner les utilisateurs dans l’appropriation des outils BI et assurer un support de proximité. Surveiller la qualité, la cohérence et l'intégrité des données dans le datawarehouse. Maintenir les plateformes BI : SAP BO 4.3, Need4Viz, 360Suite, Infoburst, Power BI, QlikSense. Optimiser les performances des requêtes SQL et des traitements décisionnels. C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements de chefferie de projet dans le domaine de la Data & BI exigeants. Vous aimez analyser, modéliser, concevoir et livrer des solutions décisionnelles de qualité , tout en innovant. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est votre manière de faire équipe : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2j Salaire : De 39000€ à 45000€ (selon expérience) brut annuel Famille métier : Data & BI Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
POT8784 - Un Data Analyste énergie Sur Saint Denis
Publiée le
SQL
6 mois
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Data Analyste énergie Sur Saint Denis. Objectif de la mission: Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : ? sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky et Gaspar ? fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté, idéalement avec expérience dans : la qualité et fiabilisation des données, les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (,compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Mission freelance
Data Engineer : Tests de Non-Régression
Publiée le
Agile Scrum
Google Cloud Platform (GCP)
Linux
3 mois
440 €
Paris, France
Télétravail partiel
Vous rejoindrez une équipe agile (10 personnes dans l'équipe "customer data", dont 3 développeurs, PO, BA, Scrum Master, PM) pour travailler sur un enjeu majeur : garantir la fiabilité des données clients. Votre mission principale sera de concevoir et d'exécuter des tests de non-régression entre la plateforme de données historique on-site et la nouvelle plateforme migrée sur GCP (Google Cloud Platform) . 💻 Votre Profil et Compétences Une forte expertise en SQL (Teradata/GCP) est indispensable (environ 60 % de l'activité). Vous utiliserez également vos compétences en Big Data (15 %) et Linux (10 %) pour investiguer les problèmes. Nous recherchons un profil faisant preuve d'une forte autonomie , d'un engagement et d'une curiosité solides pour concevoir et mener des tests fiables. Une bonne intégration dans une équipe dynamique est essentielle. Le candidat devra maîtriser l' anglais courant (C1 minimum)
Mission freelance
Senior Data Engineer
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Mission freelance
Consultant SAP Data Migration
Publiée le
SAP
6 mois
700-750 €
Île-de-France, France
Télétravail partiel
RED Global est à la recherche d’un consultant SAP Data migration pour venir rejoindre les équipes de l’un de nos clients à Paris dans le cadre de leur projet S/4HANA en cours. Compétences requises : Expérience de 6 ans minimum sur SAP Expertise sur les sujets de reprise de données/migration de données Expérience avec le cockpit de migration Expérience sur un projet S/4HANA Détails du projet : Démarrage: Janvier 2026 Durée : Mission longue – 6 mois renouvelable Charge de travail : 5 jours par semaine Lieu : Hybride – Ile-de-France - 3 jours sur site par semaine 2 jours de télétravail Langues : Français – Anglais est appréciable
Offre d'emploi
Ingénieur DevOps Confirmé Accompagnement Évolution Produit- Sophia Antipolis (H/F)
Publiée le
CI/CD
Kubernetes
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre de l’évolution continue d’un produit stratégique, nous recherchons un Ingénieur DevOps Confirmé pour accompagner la construction, l’automatisation et l’optimisation des environnements techniques. La mission est orientée Kubernetes , CI/CD , Infrastructure as Code et observabilité . 📦 Livrables attendus Construction et maintien des environnements Automatisation complète des chaînes de delivery Documentation technique associée 🛠️ Missions principales Concevoir, déployer et administrer des clusters Kubernetes Intégrer et maintenir les outils de l’écosystème Kubernetes : Istio, Helm, ArgoCD, Prometheus, Grafana… Mettre en place et améliorer les pipelines CI/CD (GitLab CI, Jenkins, ArgoCD…) Surveiller les performances, la sécurité et la disponibilité des infrastructures Automatiser les tâches d’exploitation (Bash, Python, Terraform, Ansible…) Collaborer avec les équipes de développement pour optimiser les déploiements Assurer une veille technique et l’amélioration continue des pratiques DevOps 🧰 Compétences techniques requises (impératives) Kubernetes – Confirmé Jenkins – Confirmé Anglais professionnel – Impératif Compétences complémentaires recherchées Helm, Istio, ArgoCD, FluxCD Monitoring & observabilité : Prometheus, Grafana, Alertmanager, Loki CI/CD : GitLab CI, Jenkins, Argo Workflows IaC : Terraform, Ansible
Offre d'emploi
Développeur data F/H
Publiée le
ETL (Extract-transform-load)
SAP
1 an
40k-45k €
350-500 €
Ille-et-Vilaine, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Développeur data F/H pour intervenir chez un de nos clients. Contexte : Dans le cadre d’un projet structurant pour la DSI, vous intervenez sur la conception, le développement et l’optimisation des solutions décisionnelles et d’intégration de données. L’objectif : garantir la qualité, la cohérence et la traçabilité des données tout en proposant des solutions adaptées aux besoins métiers et en assurant leur intégration dans des architectures robustes et évolutives.
Offre d'emploi
Consultant Data Databricks (F/H)
Publiée le
Apache Spark
Databricks
DevOps
3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Mission freelance
238314/Data Analyst Sénior - Power BI QlikSense Cognos SQL Blueway
Publiée le
Microsoft Power BI
3 mois
350-380 £GB
Rennes, Bretagne
Télétravail partiel
Data Analyst Sénior - Power BI Accompagner dans le déploiement de l'outil SelfService BI. Affiner la feuille de route de déploiement Apporter de l'expertise pour instancier le socle technique Accompagner le changement dans l'adoption de l'outil au sein de l'équipe Data & métier installer et administrer Power BI création de la documentation de prise en main gouvernance technique gouvernance des assets décomissionnement de l'outillage existant Périmètre technique : Power BI QlikSense Cognos SQL Blueway Prestation à Rennes avec 2 j de remote.
Mission freelance
Techlead SQL / Python / GMAO
Publiée le
Python
SQL
24 mois
400-800 €
Massy, Normandie
Télétravail partiel
PROPULSE IT recherche un Techlead SQL Python GMAO La prestation couvre les activités suivantes : •Audit de l'existant. •Proposition technique et discussion économique autour des choix •Mise en backlog / roadmap des évolutions complémentaires nécessaires •Assurer la qualité du delivery •Ecrire les documentations nécessaires •Ajuster la production des livrables •Assurer le passage de témoins entre les équipes •Participer à la compréhension des travaux de spécification afin de maitriser le planning global. •Participer et animer les réunions planning, valide l'avancement avec les différents « stakeholders » (possiblement en anglais avec d'autres entités internationales). •Faire valider par les clients en environnement pré-production.
Mission freelance
Concepteur Développeur Big Data
Publiée le
Apache Spark
AWS Cloud
Azure
12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Offre d'emploi
Data Scientist LCB-FT
Publiée le
Data science
3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Mission freelance
Consultant Master Data SAP (Migration ECC → S/4HANA) (H/F)
Publiée le
SAP ECC6
6 mois
400-550 €
Bourges, Centre-Val de Loire
Télétravail partiel
Nationalité : Française obligatoire Mobilité : 2×3 jours/mois à Bourges , Le reste en IDF / Le Plessis-Robinson Langues : Anglais professionnel TJM max : 550€ Démarrage : ASAP DESCRIPTIF DE LA MISSION – Consultant Master Data SAP (Migration ECC → S/4HANA) 🎯 Informations générales Localisation : 2×3 jours par mois sur site à Bourges , le reste en Île-de-France (Le Plessis-Robinson / IDF). Démarrage : ASAP Nationalité : Française obligatoire Durée : 6 mois (renouvelables) Rythme : 3 jours sur site / 2 jours télétravail TJM max : 550 € Langue : Anglais professionnel 🧭 Contexte de la mission Dans le cadre du projet de migration du système d'information SAP , le client recherche un Consultant Master Data SAP pour accompagner la transition complète des données ECC → S/4HANA . La mission inclut toutes les activités de préparation, nettoyage, transformation et migration des données , avec un focus particulier sur : les Master Data Manufacturing (articles, BOM, gammes, objets techniques), les Business Partners , les données qualité et traçabilité , ainsi que l’utilisation intensive des outils LSMW , Mass Update et outils de Data Cleansing . Le consultant travaillera au quotidien avec les SMEs (experts métier), les équipes IT et les coordinateurs SAP pour garantir la fiabilité , la qualité et la complétude des données migrées. 🛠️ Rôle & Responsabilités 🔹 Migration ECC → S/4 Préparer, transformer et charger les données dans le cadre de la migration. Utiliser les outils de migration : LSMW , Mass Update , scripts, templates. Exécuter des reprises de données complexes. 🔹 Data Cleansing / Data Quality Utiliser CleanScene / CleanseIT pour le nettoyage des données. Identifier les incohérences, doublons, champs manquants, formats non conformes. Suivre la résolution des anomalies avec les métiers. 🔹 Gestion des Master Data Manufacturing Le consultant interviendra sur l’ensemble des objets MDM industriels, notamment : Articles / Matériaux Objets techniques Gammes Nomenclatures (BOM) Données PP / PPDS / Ordres de production Besoin indépendants Business Partners, clients, fournisseurs Données Qualité & Traçabilité 🔹 Coordination & documentation Participer à la rédaction et l’ajustement des FSD (sans en assurer la validation). Solliciter les métiers (SME) pour la validation des règles fonctionnelles. Contribuer à la préparation des phases de test (UAT) et de bascule finale . 🔹 Production de reporting technique Le consultant devra produire du reporting opérationnel pour les métiers : Power BI SQ01 / SQ02 (reports SAP) CDS Views exploitées sous Fiori SAP Analysis for Office (AFO / DAEM) 🧩 Profil recherché 🎓 Compétences indispensables Expérience concrète sur projets SAP ECC / S/4HANA . Très bonne maîtrise des outils de migration : LSMW , Mass Update , Data Cleansing (CleanScene / CleanseIT). Connaissance approfondie des Master Data Manufacturing. Aisance confirmée sur les objets PP / PPDS / PO. Expérience en création de reporting SAP (Power BI, SQ01/02, CDS Views, AFO). Habitude de travailler avec SMEs, IT, intégrateur SAP. Anglais professionnel. 🌟 Soft Skills Rigueur & précision Forte capacité d’analyse Communication transverse Capacité à challenger les règles métier Autonomie et proactivité ⭐ Compétences clés Master Data ECC / S4 – Manufacturing & Quality LSMW / Mass Update / Migration Cockpit CleanScene / CleanseIT Gammes, BOM, objets techniques PP / PPDS / PO Power BI, SQ01/SQ02, CDS Views, AFO Interaction métier / coordination SME / IT
Mission freelance
Data Scientist IA Générative (LLM)
Publiée le
Data science
Django
IA Générative
12 mois
550-580 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Nous recherchons un Data Scientist Senior pour intervenir sur des projets avancés autour de l’ IA générative et des LLM , en lien étroit avec les équipes techniques et produit. Responsabilités : Conception et optimisation de pipelines IA basés sur des LLM Développement de solutions de type RAG , agents et chaînes de raisonnement Utilisation de LangChain et LangGraph pour orchestrer les modèles Analyse et exploitation de données textuelles Évaluation des performances des modèles (qualité, biais, robustesse) Contribution aux choix d’architecture IA Stack technique : Python 3 Django (pour intégration applicative) LangChain LangGraph LLM & IA générative (embeddings, prompts, fine-tuning, RAG) Profil recherché : Expérience confirmée en Data Science / IA Forte appétence pour les LLM et l’IA générative Solide maîtrise de Python et des problématiques NLP Capacité à travailler sur des sujets complexes et exploratoires
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
3750 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois