Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 717 résultats.
Offre d'emploi
Data Scientist - Multimodal document intelligence
PARTENOR
Publiée le
Agent IA
Deep Learning
IA Générative
1 an
Puteaux, Île-de-France
Dans le cadre d'un renforcement de nos équipes, nous recherchons des Data scientistes sénior pour intervenir de la conception globale d’une plateforme multimodale de compréhension documentaire et d’extraction de données structurées, couvrant l’analyse de mise en page de PDF complexes / pages scannées, l’extraction sémantique, la reconstruction structurelle à la validation de la qualité et l’intégration métier. Vos missions seront : Concevoir et faire évoluer le pipeline d’analyse documentaire multimodale : modélisation de la mise en page/structure, extraction sémantique, alignement cross-modal et reconstruction structurelle Construire et optimiser les mécanismes de collaboration multi-agents : décomposition des tâches, orchestration parallèle/séquentielle, relecture par les pairs et amélioration itérative de la qualité Définir les stratégies de sélection/combinaison/orchestration des modèles (routage dynamique selon le type de document, la structure du contenu et les signaux de qualité) Planifier et exécuter la validation des modèles, l’adaptation au domaine, l’apprentissage continu, l’apprentissage actif et les boucles de rétroaction des données Mettre en place des métriques de bout en bout : précision d’extraction, cohérence structurelle, efficacité de la collaboration des agents, latence, stabilité et coûts
Offre d'emploi
CONSULTANT DATA COLLIBRA (H/F)
WE +
Publiée le
Collibra
SQL
9 mois
Roissy-en-France, Île-de-France
Consultant Data -Technical Lineage COLLIBRA - Rôle transverse Gouvernance DSI / Direction des Risques Application de la norme BCBS 239 imposée par la Banque Centrale Européenne par la création du Technical lineage des données dans l’outil COLLIBRA + Suivi des contrôles de qualité de données. Tâches principales : Recensement et Cartographie des applications à intégrer dans COLLIBRA Préparation et intégration des Data dans l’outil COLLIBRA, conformément au planning défini (1 lot de 1 à 3 applications / mois jusqu’en Novembre Documenter l’utilisation et la maintenance du Technical lineage Mise en place de Workflow dans COLLIBRA
Offre d'emploi
Product Manager IA
Digimatch
Publiée le
Agile Scrum
AI
Data science
12 mois
70k €
600 €
Paris, France
Pour le département Digital, nous recherchons un(e) Product Manager IA compétent(e), motivé(e) et opérationnel(le), afin de piloter le développement de produits digitaux au sein de la division Taste & Wellbeing. Le/la candidat(e) idéal(e) dispose d’un fort sens du produit (discovery, delivery, run), d’une bonne compréhension des enjeux liés à l’IA et à la data science, ainsi que d’une expérience confirmée dans la gestion de produits digitaux au sein d’environnements complexes et orientés consommateurs. Vous travaillerez en étroite collaboration avec des parties prenantes internationales et des équipes transverses, en prenant la responsabilité de l’ensemble du cycle de vie du produit, tout en garantissant une qualité de delivery élevée, l’alignement business et une performance produit mesurable.
Mission freelance
Senior Data Analyst / Data Modeler (B2B) (H/F)
Freelance.com
Publiée le
Merise
1 an
400-520 €
Paris, France
2 jours de TT Contexte de la mission Dans le cadre d’un programme stratégique de transformation Data B2B, notre client construit une nouvelle plateforme de données cloud selon une approche Greenfield , visant à reconstruire les produits de données plutôt qu’à effectuer une migration classique des systèmes existants. La mission s’inscrit au sein d’une Core Team transverse fonctionnant en mode Agile , chargée de concevoir le socle technique et les données de référence qui permettront aux équipes métiers de développer leurs futurs cas d’usage analytiques et data science. Objectifs de la mission Le consultant interviendra en tant que référent en modélisation et connaissance de la donnée , avec un rôle clé d’interface entre les experts métiers et les équipes data engineering. Il contribuera à structurer une vision data robuste, gouvernée et orientée usage. Périmètre et responsabilités Concevoir le Core Model et modéliser les objets métiers structurants (vision client 360, contrats, facturation, parc, etc.) dans le datawarehouse cloud (modèles dimensionnels / Data Vault). Définir et prototyper en SQL les règles de rapprochement et d’unicité permettant de fiabiliser la donnée client. Analyser les sources legacy afin d’identifier les règles de gestion implicites et cartographier les écarts avec la cible. Mettre en place la gouvernance des données : dictionnaire de données, métadonnées, définitions fonctionnelles et règles de qualité. Préparer des datasets certifiés pour faciliter le travail des Data Scientists et Data Analysts. Collaborer étroitement avec les équipes métiers et le Lead Data Engineer dans un environnement Agile. Adopter une approche pragmatique orientée delivery avec une production incrémentale de valeur. Livrables attendus Modèles Logiques de Données (MLD) validés. Mapping source-to-target détaillé. Spécifications SQL des règles d’unicité client et des clés de réconciliation. Matrice de gestion des cas particuliers. Business glossary intégré au Data Catalog. Définition des règles de qualité des données. Requêtes d’analyse d’impact et datasets de test. Environnement technique Plateforme Cloud moderne BigQuery SQL avancé Data Catalog / gouvernance Méthodologie Agile / Scrum Profil recherché Expertise confirmée en modélisation de données (Merise, 3NF, Star Schema, Kimball, Data Vault). Excellente maîtrise du SQL et capacité à manipuler des jeux de données complexes. Forte compétence en analyse fonctionnelle et capacité à dialoguer avec des interlocuteurs métiers (marketing, finance, etc.). Expérience significative dans des environnements Agile . Expérience de la modélisation dans des environnements Cloud indispensable. La connaissance d’environnements B2B et de structures de comptes complexes constitue un plus. Soft skills attendues Esprit de synthèse Force de proposition Autonomie Pragmatisme Excellentes capacités de communication Informations complémentaires Compte tenu des enjeux du programme et de la criticité du calendrier, seuls les profils disposant d’une expérience solide en modélisation agile dans le cloud seront considérés.
Mission freelance
Data analyst Tableau Software - Secteur automobile
Mon Consultant Indépendant
Publiée le
Data analysis
12 mois
600-640 €
Paris, France
Pour l'un de nos clients leader de la vente de pièces détachées dans le secteur automobile, vous intervenez en tant que DATA Analyst sur l'outil Tableau software. Vous intégrerez une équipe dynamique pour participer à l'analyse des données issues de nos plateformes. Vous contribuerez aux prises de décision stratégiques et à l'amélioration continue de nos canaux de vente et de nos experts marketing. Compétences clés : Vous maitrisez l'outil Tableau Software et d'autres solutions de BI. Vous êtes à l'aise dans la conception de Tableaux de bord et la formation des équipes utilisatrices Missions Principales : Collecter, analyser et interpréter les données des plateformes Participer à la création de rapports détaillés et de tableaux de bord pour identifier les tendances et mesurer les performances. Collaborer avec la responsable Marketing et offre pour explorer des opportunités d'optimisation. Contribuer à la présentation d'insights et de recommandations basées sur les données aux parties prenantes. Participer à une veille concurrentielle pour saisir les tendances du marché et les innovations. Contribuer à des tests & expérimentations Participer à la mise en place de processus d’automatisation, en collaboration avec les équipes commerciales et techniques.
Offre d'emploi
Analyste data finance (F/H/X)
Talents Finance
Publiée le
35k-55k €
Paris, France
Vos missions : Préparation d’un plan de travail de correction des données Collecter et centraliser les données financières statiques, nécessaires à l’optimisation de l’ERP de l’entreprise Saisir, mettre à jour, vérifier la cohérence, contrôler la qualité des données Catégoriser et structurer les données pour faciliter leur analyse et exploitation stratégique Créer et mettre à jour des manuels de gestion de données Participer à la création d'un système d'analyse de la qualité des données Analyser des données simples existantes et rechercher des écarts de données Modéliser les bases de données financières et en assurer les mises à jour régulières, pour répondre aux besoins évolutifs Interagir directement avec les utilisateurs finaux, pour comprendre leurs besoins spécifiques et construire une relation de confiance Autres informations : Département : Technologie de l'information Type de contrat : Contrat à durée indéterminée (CDI), Temps plein Durée du contrat : indéterminée Date de début : dès que possible Horaire : 8H00-12H00 et de 12H50-16H50 du lundi au jeudi et 8H00-12H00 et de 12H50-15H50 le vendredi (soit un total de 39H par semaine) Localisation du poste : Nogent-sur-Seine, Aube (10), Grand Est, France - proche Romilly-sur-Seine (10), Troyes (10), Sézanne (51), Montereau-Fault-Yonne (77), Nangis (77), Provins (77) et Sens (89), 54 min direct de Paris en train Déplacement : à Nogent-sur-Seine Télétravail : non Poste ouvert aux personnes en situation de handicap
Mission freelance
DATA ENGINEER AZURE - SNOWFLAKE
CHOURAK CONSULTING
Publiée le
Apache Airflow
Azure
Azure Data Factory
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Confirmé/Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Offre d'emploi
Data Scientist
VISIAN
Publiée le
Machine Learning
Python
SQL
1 an
40k-45k €
140-480 €
Paris, France
Mission La mission d'une institution financière majeure est de contribuer à une croissance responsable et durable par un financement de l'économie dans le respect des plus hauts standards éthiques, en particulier dans les domaines de l'anti-blanchiment d'argent, de la lutte contre le terrorisme, et de la lutte contre la fraude et l'ingénierie sociale. L'optimisation des services opérationnels via la science des données représente une opportunité majeure pour notre entreprise de se démarquer sur le marché. Descriptif du Poste Assurer la recherche de données et la mise au point de modèles performants afin d'assister de nombreuses équipes de la banque commerciale dans leur effort d'identification et d'analyse des comportements suspects. Déployer et intégrer ces modèles dans les infrastructures et flux de travail de l'entreprise en assurant un impact positif et maîtrisé. Profil Recherché Nous cherchons un profil capable de développer et intégrer des solutions avancées de data science appliquée à des données structurées en priorité. Des compétences en traitement du langage naturel (NLP traditionnelle, voire GenAI) seraient un plus permettant de proposer à nos clients internes des fonctionnalités différenciantes et l'évolution en interne du profil vers d'autres projets. Ce profil doit connaître en détail le fonctionnement de nombreux algorithmes d'apprentissage, supervisé comme non supervisé, et être en pleine possession des méthodologies d'évaluation de modèles. Idéalement, le candidat devrait avoir une expérience pratique dans des projets similaires et démontrer une capacité à traduire un problème concret en problème mathématique au moyen des données. Une excellente maîtrise de Python et de SQL est en outre nécessaire. Des compétences de type "soft skills" seront également incontournables, comme la gestion de projet, une écoute de qualité avec les interlocuteurs métier ainsi qu'une bonne communication, et un goût de la collaboration et le partage des connaissances, notamment avec les autres data scientists et les équipes techniques et opérationnelles (MLE, MLOPS, OPS).
Mission freelance
Data Engineer
Signe +
Publiée le
Microsoft Power BI
6 mois
350-450 €
Vélizy-Villacoublay, Île-de-France
Contexte Dans le cadre des projets de transformation digitale, le consultant interviendra sur la conception, le développement et l’industrialisation de solutions data et reporting, en collaboration avec les équipes DevOps et les équipes métiers. Missions principales Participer aux différentes phases des projets Data Concevoir et maintenir Data Warehouses, Data Marts et Data Cubes Développer et maintenir des pipelines ETL (Delta / Full / Historisation) Développer et maintenir des jobs Azure Data Factory Optimiser les performances SQL, DAX, MDX Mettre en œuvre la sécurité des données (Row Level Security) Monitorer, maintenir et déboguer l’écosystème BI Mettre en place des pipelines CI/CD automatisés Rédiger la documentation technique et participer aux phases de cadrage Compétences techniques Azure Data Factory ADLS Gen2 Azure SQL DB Analysis Services Power BI GitLab / Azure DevOps SQL Server, T-SQL optimisation Data Modeling / Data Warehousing CI/CD data pipelines Profil recherché Formation supérieure informatique / data Bon relationnel et esprit analytique Capacité à travailler en environnement international
Offre d'emploi
Architecte data
CAT-AMANIA
Publiée le
Architecture
Île-de-France, France
Le bénéficiaire souhaite s’appuyer sur une expertise en architecture data ou data modeling afin de : • Accompagnement des équipes Métier et IT dans la mise en œuvre de solutions Data alignées avec la stratégie Data de l’entreprise, fondée sur les principes Data Mesh et une gouvernance renforcée. • Définition et application des principes d’architecture et de gouvernance Data, en lien avec la Design Authority et le Centre d’expertise Data. Le périmètre d’intervention pourra évoluer en fonction des besoins et des domaines métier à adresser.
Mission freelance
POT8951 - Un Data Analyste sur Massy
Almatek
Publiée le
Docker
6 mois
170-470 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, un Data Analyste sur Massy ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. -Discuter avec les équipes opérationnelles et dirigeantes pour identifier leurs besoins et leurs difficultés, raffiner et prioriser les besoins avec l’ensemble de l’équipe -Concevoir, développer, faire évoluer la solution logicielle de détection de fraude avec des traitements vidéo en temps réel, des processus d’apprentissage automatique et de labellisation de données, des services d’administration de la solution et de suivi de sa performance, - Valider le comportement de la solution sur une infrastructure de test, identique aux magasins -Contribuer itérativement au projet en tant que ML engineer : collecte des données et préparation, modélisation, développement, évaluation, revue de code, déploiement des solutions, suivi de l’impact; - Communiquer sur les éventuels incidents des services en production -Vous pourrez également participer aux échanges réguliers de notre communauté d’une quarantaine d'ingénieurs (data scientists, engineers, devops) : présentations, - Partage de retours de conférences, débats sur les problématiques ML, de développement logiciel, ...
Mission freelance
Data engineer H/F
HAYS France
Publiée le
6 mois
450-500 €
Luxembourg
Responsabilités clés : Le département Risk a décidé de refondre ses outils de reporting réglementaire et interne pour l'ensemble du Groupe. La solution cible reposera sur la collecte des sources de données via notre Microsoft Data Platform, ainsi que sur la transformation des données et la production d'une grande partie du reporting Risques du Groupe à l'aide de l'outil WKFS RiskPro et, pour une liste limitée de rapports, via Risk EUC et des rapports / tableaux de bord Power BI. Responsabilités : Développement de pipelines dans Azure Synapse Analytics pour l'ingestion de données Implémentation des règles de transformation dans la Microsoft Data Platform du Groupe Réalisation des tests techniques unitaires Support à la phase UAT (corrections d'anomalies / demandes d'évolution) Déploiement des développements
Mission freelance
Architecte Data
Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Mission freelance
Consultant SAP Master Data -MM/SD
KN CONSULTING
Publiée le
Master Data Management (MDM)
SAP MM
SAP SD
3 mois
400-700 €
Auvergne-Rhône-Alpes, France
Nous recherchons actuellement un Consultant Freelance SAP Master Data MM/SD pour intervenir dans le cadre d’un projet stratégique de conversion vers S/4HANA . La mission porte principalement sur la gestion et la qualité des données de référence (Master Data) , avec un focus important sur la préparation, l’exécution et le suivi des tests de non-régression afin de garantir l’intégrité des données après la conversion. L’objectif est d’assurer une transition fiable vers S/4HANA , en sécurisant les données Master Data et en contribuant activement aux phases de test et de validation du projet. ⚠️ Point essentiel pour le client : nous recherchons un profil autonome sur le paramétrage et à l’aise avec les aspects techniques de base , notamment sur les Business Partners et les interfaces.
Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark
3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Mission freelance
Data Scientist Machine Learning Copilot - full remote
Net technologie
Publiée le
Agent IA
Copilot
Data science
3 mois
400-420 €
France
Nous recherchons un datascientist Machine Learning pour une mission en fullremote depuis la France. Nous recherchons un(e) Data Scientist pour contribuer au déploiement d’un Sales AI Copilot destiné à assister les équipes commerciales. ❇️ Comprendre les enjeux Sales (pipeline, forecast, CRM…) ❇️ Concevoir des solutions data-driven & modèles ML ❇️ Déployer des cas d’usage LLM (RAG, Q&A, génération de texte) ❇️ Industrialiser les modèles (pipelines, MLOps, monitoring) sur Azure ❇️ Interagir avec le business et vulgariser les insights
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1717 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois