L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 367 résultats.
Mission freelance
Senior Data Scientist IA / Computer Vision / GenAI
Signe +
Publiée le
Agent IA
12 mois
500-700 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Dans le cadre du développement de solutions technologiques innovantes destinées aux acteurs de la mobilité et de la gestion de flottes, une équipe data souhaite se renforcer avec un Senior Data Scientist spécialisé en intelligence artificielle. L’objectif est de concevoir et industrialiser des modèles avancés permettant d’optimiser la performance opérationnelle, la sécurité et la durabilité des solutions proposées. Objectif de la mission Concevoir, développer et industrialiser des briques d’intelligence artificielle avancées (computer vision, modèles prédictifs, IA générative, systèmes agents) dans un environnement produit data innovant. Missions principales Conception et développement IA Concevoir des algorithmes d’IA pour des modèles prédictifs (risque, consommation, maintenance, performance) Analyser les performances des modèles et suivre les KPI Assurer la traçabilité des itérations et la non-régression Participer à l’industrialisation des modèles IA générative et systèmes agents Contribuer aux travaux autour des modèles de langage (LLM) Développer des solutions d’IA générative et de systèmes agents Participer à l’animation d’une communauté technique IA Innovation et vision Assurer une veille technologique active Proposer des orientations techniques innovantes Contribuer à des travaux de recherche et d’innovation Collaborer avec des partenaires externes (labos, start-ups, éditeurs) Coordination et communication Interagir avec les équipes techniques et métiers Comprendre les besoins opérationnels des utilisateurs Participer à la rédaction et validation des tickets techniques et releases Présenter les résultats et recommandations Livrables attendus Briques algorithmiques industrialisables Indicateurs de performance et analyses Documentation technique Contributions à la roadmap data / IA Recommandations techniques et stratégiques Compétences obligatoires Expertise en intelligence artificielle et machine learning avancé Expérience sur les modèles de langage (LLM) et systèmes agents Connaissances solides en computer vision Expérience en industrialisation de modèles data Capacité à piloter des projets data complexes Esprit analytique et critique Compétences appréciées Connaissance des environnements cloud / MLOps Expérience produit data ou solutions innovantes Interaction avec écosystèmes de recherche Participation à projets innovants ou brevets
Offre d'emploi
Expert IBM Infosphere - Data Replication
VISIAN
Publiée le
AS/400
IBM DataStage
1 an
Paris, France
Contexte Dans le cadre du programme qui vise à construire une Data Platform intégrée , la réplication des données AS/400 vers le Data Hub est un enjeu clé. IBM Infosphere Data Replication (IIDR) est l'outil en place pour assurer la synchronisation des tables de l'AS/400 (on-premise) vers PostgreSQL (Cloud) . Actuellement, le périmètre des tables répliquées est limité, mais il s'étendra significativement en 2025, avec un objectif de réplication en near-sync. Toutefois, plusieurs défis doivent être adressés : Incidents en production non résolus, liés soit à la configuration existante de IIDR, soit à des instabilités sur la base PostgreSQL. Problèmes de doublons issus de l'AS/400, nécessitant des stratégies de gestion des clés et des identifiants uniques. Difficultés de réplication des tables volumineuses, où les mécanismes standards ne permettent pas d'assurer une synchronisation efficace. Nous recherchons un Expert IBM IDR qui aura pour mission de stabiliser la solution, améliorer la scalabilité et accompagner l'élargissement du périmètre des données répliquées.
Mission freelance
Proxy Product Owner Data Freelance
SURICATE IT
Publiée le
Dataiku
Finance
P2P
3 ans
Puteaux, Île-de-France
Proxy Product Owner Data Freelance – Corporate Finance Transformation 📍 Informations mission 👤 Expérience : 10 ans MINIMUM requis 🚀 Démarrage : ASAP ⏳ Durée : 3 ans 🏠 Télétravail : 1 jour par semaine (non négociable) 🌍 Anglais : bon niveau requis 💰 TJM : selon profil 🌍 Localisation : Puteaux Nous recherchons un Proxy Product Owner Data pour accompagner le programme de transformation Corporate Finance au sein du Group Data Office . Le rôle consiste à garantir que les initiatives de transformation Finance intégrant une dimension data sont correctement identifiées, structurées et alignées avec les standards data du groupe , tout en assurant une delivery efficace . Le poste agit comme un pont entre les équipes Finance, IT et Data afin de permettre une transformation data-driven des processus Finance. 🎯 Missions principales Identifier les initiatives Finance ayant un impact data Traduire les besoins métier Finance en exigences data et techniques Garantir l’alignement avec les standards et patterns d’architecture du Group Data Office Contribuer à l’ automatisation des processus Finance Coordonner les équipes Finance, IT et Data pour assurer la delivery Assurer le suivi des projets, reporting et gestion des parties prenantes Les initiatives portent notamment sur : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Use cases data et analytics 🌍 Environnement Rôle stratégique à l’interface entre Corporate Finance et Data , contribuant à accélérer la transformation data-driven des fonctions Finance dans un environnement international.
Offre d'emploi
Data Engineer & API Automation (H/F)
Link Consulting
Publiée le
50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Offre d'emploi
Consultant BI / DataViz Senior (H/F/X)
MSI Experts
Publiée le
Data visualisation
Microsoft Power BI
Python
1 an
10k-40k €
100-420 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du renforcement d’une équipe Data, nous recherchons pour un client lyonnais un Consultant BI / DataViz Senior pour accompagner les métiers dans la valorisation de leurs données et la création de tableaux de bord à forte valeur ajoutée. Vos missions principales Recueillir et analyser les besoins fonctionnels et techniques Concevoir une architecture de données performante et adaptée Participer à la modélisation et à l’enrichissement de datawarehouses / datamarts Développer et optimiser des dashboards interactifs et ergonomiques Collaborer étroitement avec les équipes métiers pour affiner les usages Garantir la qualité, la lisibilité et la pertinence des visualisations
Mission freelance
Consultant Data Migration ERP / Microsoft Dynamics 365 (H/F)
Freelance.com
Publiée le
Microsoft Dynamics
Microsoft Excel
MySQL
3 ans
400-650 €
Nanterre, Île-de-France
Dans le cadre d’un programme stratégique de déploiement Microsoft Dynamics 365 à grande échelle , nous recherchons un Consultant Data Migration senior et opérationnel pour sécuriser la reprise de données sur un projet industriel de longue durée. La mission s’inscrit au sein de l’équipe déploiement, dans un contexte de roll-out multi-entités sur plusieurs années, avec un fort enjeu de continuité opérationnelle et d’industrialisation des processus de migration. Le core model, construit historiquement pour le secteur de la construction, existe depuis plus de 6 ans et doit désormais être déployé à grande échelle. À ce jour, 8 sociétés ont déjà été migrées sur un périmètre cible d’environ 200 entités , avec un potentiel d’extension supplémentaire. L’objectif est de sécuriser, structurer et industrialiser les reprises de données , en dépassant les méthodes trop artisanales basées uniquement sur des templates fichiers. Missions principales Piloter et sécuriser les activités de reprise et migration de données vers Microsoft Dynamics 365 Analyser et consolider des données issues de sources multiples : bases SQL fichiers Excel CSV Reproduire, remettre à plat et fiabiliser les modèles de données dans D365 Structurer les méthodes de migration et les processus de transformation Industrialiser les flux de reprise de données Contrôler la qualité, la cohérence et l’intégrité des données migrées Accompagner les phases de test et les Go-Live Collaborer avec les équipes métiers et les key users Challenger les méthodes actuelles et proposer des axes d’amélioration Enjeux clés Volumétrie importante (milliers d’enregistrements) Multiplicité des sources Déploiement multi-filiales / multi-entités Forte exigence de robustesse et d’autonomie
Mission freelance
Data Scientist – Deep Learning / NLP
ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python
1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Mission freelance
Architecte Power BI / Data Engineer Senior – Expert Advisory (H/F)
HOXTON PARTNERS
Publiée le
Microsoft Power BI
Powershell
4 jours
Paris, France
Dans le cadre de plusieurs sujets techniques autour de Power BI, nous recherchons un Architecte Power BI / Data Engineer senior pour intervenir sur des problématiques à forte complexité technique. La mission consiste à apporter une expertise de haut niveau sur des sujets avancés tels que l’analyse et la documentation des API Admin V2 Power BI, l’identification des applications ne utilisant pas les fonctionnalités de gestion d’accès (Custom Message), l’expertise sur les capacités Power BI en mode Pay-As-You-Go, ainsi que l’analyse et la configuration des environnements Gateway (PowerShell, VMNET, réseau). Le consultant interviendra en tant qu’expert afin d’apporter des recommandations d’architecture, résoudre des problématiques complexes et accompagner les équipes sur des sujets techniques critiques. L’intervention se fera sous forme de sessions d’expertise ponctuelles de 2 à 4 heures.
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Data Pipeline Analyst - NL / FR
AEROW
Publiée le
Data analysis
Data management
Data visualisation
2 ans
Bruxelles, Bruxelles-Capitale, Belgique
Attention, le poste est basé à Bruxelles, avec une présence de 2 jours minimum sur site. La mission combine analyse de données , modélisation sémantique (Linked Data) , compréhension des data pipelines et pilotage de petits projets data , en lien étroit avec les équipes métier , Data & Digital et ICT . Objectif : garantir la cohérence, l’interopérabilité et la réutilisabilité des données et livrer des analyses et dashboards exploitables. Responsabilités clés Cadrage & pilotage : recueil/analyse des besoins, définition du scope, objectifs, livrables et planning pour projets data de petite à moyenne envergure ; suivi d’avancement, coordination fonctionnelle et communication vers les parties prenantes ; respect du scope, délais et qualité. Analyse de données & pipelines : analyse des sources/flux/transformations et modèles ; contribution à la définition/optimisation des data pipelines ; identification d’axes d’amélioration (qualité, fiabilité, performance, réutilisabilité). Modélisation sémantique : conception/évolution de modèles RDF/OWL (Linked Data) pour l’interopérabilité. Livrables analytiques : réalisation d’analyses pour cas d’usage opérationnels ; développement de rapports, KPI et tableaux de bord ; validation avec les utilisateurs. Coordination transverse : interface fonctionnelle entre Business, Data & Digital et ICT ; animation d’ateliers et facilitation de la décision ; alignement avec la roadmap Data & Digital et les standards. Documentation & transfert : documentation des analyses, choix fonctionnels et modèles via Sparx Enterprise Architect ; formalisation des bonnes pratiques ; transfert de connaissances vers les équipes internes
Offre d'emploi
Tech Lead Data et IA Générative H/F
JEMS
Publiée le
50k-65k €
Nantes, Pays de la Loire
Nous recherchons un(e) Tech Lead Data et IA Générative capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 36ql69h8p2
Mission freelance
Ingénieur·e Data / DevOps
ATTINEOS
Publiée le
DevOps
1 an
320-470 €
Rouen, Normandie
Vous aimez évoluer sur des environnements data, manipuler de gros volumes de données et intervenir aussi bien en développement qu’en exploitation ? Cette opportunité est faite pour vous ! Nous recherchons un·e Ingénieur·e Data / DevOps pour renforcer une équipe intervenant sur des sujets à forte dominante data et bases de données. Au sein de l’équipe, vous interviendrez principalement sur des activités de RUN avec une forte composante développement, dans un environnement orienté data. Vos principales responsabilités : Développement autour des environnements Altair Intervention sur des problématiques data et bases de données Maintien en conditions opérationnelles des applications Analyse et résolution d’incidents Optimisation des traitements et des performances Contribution à l’amélioration continue des outils et des process Environnement technique : Altair, Bases de données (SQL), Environnement data, Notions DevOps et infrastructure (appréciées)
Mission freelance
Lead Tech Python – GenAI (H/F) – Mission 3 jours semaines – Île-de-France
HOXTON PARTNERS
Publiée le
AWS Cloud
GenAI
Python
10 mois
550 €
Massy, Île-de-France
Dans le cadre de la mise en place d’une GenAI Factory au sein d’un grand acteur bancaire, nous recherchons un Lead Tech Python expérimenté. La mission consiste à intervenir comme référent technique auprès d’une équipe de développeurs GenAI afin de renforcer la qualité et la robustesse des développements Python. Le consultant participera activement au développement, challengera les choix techniques, diffusera les bonnes pratiques (architecture, structuration de code, tests, performance) et recommandera les librairies adaptées aux cas d’usage IA générative (LLM, RAG, orchestration, etc.). Une expérience concrète en développement sur des projets Generative AI est indispensable. Une connaissance d’environnements cloud, idéalement AWS, est fortement appréciée.
Offre d'emploi
Chef de Projet Data (H/F)
OBJECTWARE
Publiée le
Data analysis
3 ans
40k-70k €
400-550 €
Île-de-France, France
🎯 Missions🔹 Pilotage projet Cadrer les besoins métiers en lien avec les parties prenantes (Data, IT, Métiers) Définir la roadmap projet et piloter les plannings (budget, délais, risques) Animer les comités projets (COPIL, COMEX, ateliers métiers) Suivre l’avancement des projets et assurer le reporting 🔹 Coordination Data / IT / Métiers Faire le lien entre équipes techniques (Data Engineers, Architectes, BI) et métiers Garantir la bonne compréhension des besoins fonctionnels Superviser les phases de développement, recette et mise en production 🔹 Data & Gouvernance Participer à la mise en place de référentiels de données (Data Catalog, Data Quality…) Contribuer aux sujets de gouvernance (RGPD, qualité des données, lineage) Accompagner les métiers dans l’exploitation et la valorisation des données 🔹 Delivery & Qualité Piloter les phases de recette (UAT) Garantir la qualité des livrables et leur adéquation aux besoins Assurer la conduite du changement auprès des utilisateurs
Offre d'emploi
Consultant(e) Data – Expertise Dataiku (F/H)
Argain Consulting Innovation
Publiée le
Dataiku
120 jours
38k-48k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data – Expertise Dataiku (F/H) Vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de : Travailler à la fois comme Développeur Data, Business Analyst Data , et référent Dataiku, en jonglant efficacement entre plusieurs projets. Synthétiser les échanges (ateliers, COPRO) afin de partager les sujets clés, proposer des solutions adaptées, chiffrer les besoins et planifier les actions. Assurer le suivi des tâches, sprints et collaborations via JIRA. Concevoir, développer et maintenir des pipelines data end‑to‑end dans Dataiku , notamment avec des traitements en SQL et la connaissance de GCP Contribuer à l’amélioration continue des modèles de traitement, de la qualité des données et des processus métiers. Analyser les besoins des équipes métier, challenger les hypothèses et traduire les cas d’usage en solutions data robustes. Participer à l’animation des ateliers, COPIL/COPRO, et accompagner les équipes dans la bonne exploitation des outils data. Collaborer avec les équipes Data, IT, métiers et prestataires externes pour garantir l’avancement des projets. Assurer une documentation claire et la traçabilité des traitements Data. Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE, Mener et réaliser des projets associatifs (mécénat auprès de nos associations partenaires)
Mission freelance
Consultant SAP PP QM Data Migration
SAP-HIRE
Publiée le
SAP
SAP PP
SAP QM
9 mois
Paris, France
Nous recherchons un profil SAP PP QM sur la Data Migration pour renforcer un projet de migration vers SAP S/4. La mission consiste à Identifier et analyser des données à migrer (matériaux, nomenclatures, gammes, données qualité), mapper et définitir les règles de transformation, préparer et charger les données (LSMW / Migration Cockpit), contrôles qualité des données et gestion des incidents, participer aux phases de tests (SIT/UAT) et aux répétitions de migration (cutover). Vous aurez une expérience confirmée en migration de données SAP, une bonne compréhension des données PP & QM, serait autonome, rigoureux et orienté qualité des données. La mission doit se réaliser 3 jours sur site en IDF.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3367 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois