L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 898 résultats.
Mission freelance
Data Analyst – Data produit & trafic web - Paris (H/F)
EASY PARTNER
Publiée le
Apache Spark
Microsoft Power BI
PL/SQL
1 an
400-430 €
Paris, France
Dans le cadre de projets liés à l’analyse de la performance digitale (web et mobile), un acteur du secteur digital recherche un Data Analyst . Les missions portent sur l’analyse des données de trafic et des usages utilisateurs. Missions Analyser les données d’usage (web / mobile / trafic) Construire et maintenir des dashboards métiers (Power BI, Tableau) Suivre les KPIs produits et business Collaborer avec les équipes produit et techniques Participer au reporting et à la prise de décision Power BI tracking web outils analytics (type GA, dataLayer…) SQL avancé Power BI / Tableau Python
Offre d'emploi
Data Analyst/Dataiku
OBJECTWARE
Publiée le
Dataiku
3 ans
40k-83k €
400-650 €
Île-de-France, France
Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe Arval. Prestations demandées Réunions de cadrage avec les métiers afin de définir les règles de gestion : - Identification d'architecture et modélisation data - Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés - Scénarisation des flows DATAIKU - Recettage des projets, correction de bugs - Mise en production - Analyses ad hocs - Maintenance du run - Analyses ad hocs - Sécuriser la cohérence des KPIs produits et la qualité des données exploitées - Communication auprès des métiers - Responsable de la relation Marketing avec l'IT
Mission freelance
DBA / Ingénieur Data Senior (H/F)
SPI INFORMATIQUE
Publiée le
Git
Linux
PL/SQL
3 mois
310-490 €
Deux-Sèvres, France
Missions principales : Administration et gestion des bases de données Gestion des habilitations et des accès utilisateurs Réalisation de sauvegardes, restaurations et copies de données Gestion des environnements (développement, préproduction, production) Développement et automatisation de scripts Participation aux mises en production Maintien en condition opérationnelle (MCO) Analyse, correction et optimisation des performances Profil recherché Expérience significative en tant que DBA / Ingénieur Data Excellente maîtrise de PostgreSQL Solides compétences en scripting et automatisation Expérience sur des environnements de production Autonomie, rigueur et capacité d’analyse
Mission freelance
Data Scientist Senior (IA Générative & NLP)
Nicholson SAS
Publiée le
Agent IA
AWS Cloud
Dataiku
6 mois
450 €
Colombes, Île-de-France
Nous recherchons un Data Scientist Senior (5 à 9 ans d'expérience) pour intervenir sur des projets d'envergure mêlant Intelligence Artificielle conventionnelle et IA Générative. 📍 Modalités de la mission Lieu : Colombes (Hybride : 2 à 3 jours/semaine sur site) Date de démarrage : 04/05/2026 Date de fin : 30/10/2026 (prolongation possible) Budget (TJM ) : 450 € 🎯 Cœur de mission Expert en IA, vous concevez et implémentez des systèmes d'IA générative avancés (LLM). Vous accompagnez techniquement les équipes, de la phase de prétraitement des données jusqu'au déploiement en environnement Cloud, tout en garantissant la robustesse et la factualité des modèles. 🛠 Compétences techniques Expertise IA Générative & NLP (Indispensable) : LLM & RAG : Maîtrise des architectures RAG (chunking, embeddings, vector indexing, retrieval), du prompt engineering avancé et des frameworks comme LangChain ou LlamaIndex . NLP : Prétraitement textuel complet (parsing, POS Tagging, normalisation) et évaluation des modèles (métriques NLP, analyse d'hallucinations et factualité). Deep Learning : Maîtrise des architectures Transformers, RNN, LSTM et GRU. Stack Technique : Langages & Libs : Excellente maîtrise de Python et des bibliothèques standards ( PyTorch, TensorFlow, Scikit-learn ). Cloud & MLOps : Déploiement sur environnements Cloud (idéalement AWS : SageMaker, Bedrock, OpenSearch). Pratiques CI/CD via GitLab . Outils Data : Connaissance de Dataiku et des enjeux réglementaires (RGPD / AI Act).
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Offre d'emploi
Senior Data Scientist - CDI F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
BigQuery
Deep Learning
Elasticsearch
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
DATA SCIENTIST
Codezys
Publiée le
Azure
Azure AI Foundry
Azure DevOps Services
12 mois
450-500 €
Nanterre, Île-de-France
Description détaillée : VOTRE MISSION Concevoir et industrialiser des solutions d’intelligence artificielle générative (modèles de langage de grande taille, agents intelligents, RAG) en réponse aux besoins identifiés par la cellule AI Catalysts, priorisés par le Product Owner (PO). Intégrer ces composants GenAI au sein de l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de gestion des coûts. Définir et mettre en œuvre les architectures techniques appropriées : sélection des modèles, orchestration des agents, conception des systèmes RAG, gestion des sessions utilisateur. Développer et maintenir le code, principalement en Python, ainsi que les composants réutilisables tels que les librairies de prompts et d’agents. Industrialiser le déploiement des solutions via la conteneurisation (Docker), l’orchestration Kubernetes, les pipelines CI/CD, l’Infrastructure as Code (Terraform), et assurer le suivi opérationnel (monitoring). Appliquer les bonnes pratiques MLOps : suivi des expérimentations, versioning des modèles, tests de régression, validations en environnement pré-production. S’assurer de la qualité, de la performance et de l’observabilité des solutions : mise en place de métriques, tests adversariaux, surveillance des dégradations en production. Collaborer étroitement avec le Product Owner, les ingénieurs logiciels, les AI Catalysts et la DSI afin d’assurer la sécurité et l’adoption des solutions proposées. Participer à la documentation, à la création de templates, ainsi qu’à la formation des équipes internes. Profil recherché : Data Scientist Responsable du développement d’algorithmes en Machine Learning et Intelligence Artificielle, visant à générer de la valeur métier à partir de données (structures, non structurées, vidéos, images, etc.). Capable de comprendre et d’interroger les demandes de l’entreprise pour fournir des solutions optimales. Apporte un support stratégique à la décision, notamment en proposant des innovations, en améliorant les performances et en optimisant le service client. Participe à l’industrialisation des projets de Data Science en collaboration avec les Data Engineers. Assure la maintenance et la documentation des algorithmes industrialisés, conformément aux rôles et responsabilités définis par le projet. Localisation : Paris – Niveau avancé (minimum 9 ans d’expérience dans le domaine) Ce descriptif ne doit pas dépasser 3000 caractères, intégrant l’ensemble des éléments en HTML pour garantir une mise en forme claire et professionnelle.
Mission freelance
Data-AI-Analytics / Business Intelligence
Nicholson SAS
Publiée le
Azure Data Factory
Azure Synapse
Microsoft Power BI
6 mois
300-420 €
Obernai, Grand Est
Consultant Data & Enterprise Architecture Informations Pratiques: Secteur : Industrie / Excellence Opérationnelle Localisation : Obernai (67) – Présentiel Démarrage : ASAP Durée : Jusqu’au 21/09/2026 (Visibilité long terme) Contexte de la mission Dans le cadre d’une transformation organisationnelle majeure ("Transform 2025"), le groupe souhaite aligner son écosystème digital sur sa nouvelle structure. L'enjeu est de piloter l'adaptation des outils d’ Enterprise Architecture (LeanIX) et la chaîne de valeur Data & Analytics associée. Vos Missions Rattaché(e) à l’équipe Enterprise Architecture, vous intervenez sur l’ensemble du cycle de données, du paramétrage de l’outil métier à la restitution analytique : Architecture & Paramétrage : Ajuster la configuration de LeanIX pour refléter la nouvelle structure organisationnelle. Data Engineering (Stack Azure) : Adapter les flux et le modèle de données (ETL, bases de données) pour garantir la continuité du reporting. Data Visualization : Mettre à jour et optimiser les rapports Power BI existants. Prospective : Participer à l’étude de faisabilité et à l’évaluation de la solution ARIS comme alternative stratégique. Expertise Technique & Livrables Configuration EA : Paramétrage expert LeanIX. Ingénierie de données : Azure Data Factory, Azure Synapse (Dedicated SQL Pool), Azure Functions (Python), déploiement via scripts Bicep. Business Intelligence : Modèles sémantiques et rapports Power BI. Documentation : Rédaction de l’ensemble des supports techniques en anglais . Profil Recherché Expert(e) en Data/BI avec une sensibilité forte pour l’architecture d’entreprise. Expérience : 4 à 10 ans (Profil Confirmé à Expert). Compétences clés : Maîtrise de l’écosystème Azure, SQL, Python et Power BI. Une connaissance de LeanIX ou ARIS est un atout majeur. Soft Skills : Autonomie, force de proposition et capacité à naviguer dans un environnement de transformation. Langues : Français et Anglais courants. Conditions de la prestation Grille de prix (TJM max) : Confirmé (4-7 ans) : 300 € Senior (8-10 ans) : 360 € Expert (+10 ans) : 420 € Critères d'évaluation : Respect des jalons, conformité aux standards de qualité internes et proactivité dans la gestion des interfaces métiers.
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Data / IA Engineer (H/F)
CITECH
Publiée le
Docker
IA
Kubernetes
60k-70k €
Orléans, Centre-Val de Loire
🚀 CITECH recrute ! 👌 ✨ Vous souhaitez intervenir sur des projets IA & AIOps à fort enjeu , au cœur de la conception de moteurs d’intelligence artificielle et de pipelines de données avancés ? Nous recherchons un(e) Data / IA Engineer (H/F) pour participer à la réalisation des premiers cas d’usage IA (MVP) dans un environnement technique exigeant et innovant. 🙌🔽 Vos principales missions : 🔽🙌 IA & Data Engineering 🔸 Concevoir et développer des bases de connaissances (RAG) en ingérant et structurant des documents internes et issus d’outils tiers. 🔸 Mettre en place des agents IA dynamiques , capables de traiter des documents injectés en temps réel, de manière sécurisée. 🔸 Assurer la segmentation des documents (chunking) , l’ indexation vectorielle et le paramétrage des stratégies de recherche . Modélisation & Optimisation IA 🔸 Configurer et optimiser les modèles via Azure AI Foundry et LiteLLM (prompts, garde-fous, évaluation de la qualité). 🔸 Garantir la performance, la fiabilité et la pertinence des réponses générées. Intégration & Gouvernance 🔸 Participer activement aux processus CI/CD et au respect des normes de gouvernance technique . 🔸 Contribuer à l’industrialisation des solutions IA dans l’écosystème existant. Support & Collaboration 🔸 Fournir un support technique aux équipes projet. 🔸 Alimenter la FAQ technique et participer au partage de connaissances. 🔸 Travailler en collaboration avec les équipes Production et métiers.
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Prompt Engineer PAris
Cogniwave dynamics
Publiée le
Data science
Python
1 an
40k-43k €
290-310 €
Paris, France
Pour un poste en CDI , nous recherchons un prompt engineer (2/5 ans expérience) Salaire Fixe + différentes primes de performance La mission interviendra sur un projet d’IA mise au service de la force de vente. Les principaux cas d’usages de la mission seront la génération de Pre-meeting Reports pour les commerciaux et la génération de leads IA (AI-generated leads). Phase : passage à l’industrialisation (post‑POC / phase initiale). Tâches à réaliser : Concevoir des frameworks de prompts et d’agents (agentic + standard). Mettre en place des pipelines d’évaluation structurés (Promptfoo, LangSmith, QA custom). Garantir des sorties structurées et typées (Pydantic, JSON). Gérer le PromptOps complet : Git, versionning, meilleures pratiques. Optimiser les coûts tokens via RAG et context pruning. Concevoir des API / tool-calling schemas pour l’intégration aux systèmes. Utiliser Chain-of-Thought et Self-Reflection pour améliorer le raisonnement. Construire des systèmes IA autonomes robustes pour la production.
Mission freelance
Business Analyst Data (Advanced)
Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake
12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
Offre d'emploi
Analyste Data
CAT-AMANIA
Publiée le
Big Data
Microsoft Power BI
PySpark
2 ans
40k-48k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Analyste Data pour intégrer l’équipe Analyse de la Donnée. Rattaché à l’équipe, vous serez en charge de mettre en œuvre des cas d’usage métier via le croisement de données, développer et maintenir des produits DATA réutilisables, et restituer vos analyses à travers des dashboards et dataviz. Vous accompagnerez également les équipes métiers dans l’acculturation DATA tout en respectant les normes et bonnes pratiques de l’équipe. Maîtrise de Python, PySpark, SQL , expérience sur Big Data Hadoop (Cloudera) et compétences en Power BI sont requises, ainsi qu’une solide expertise en data science et analyse de données.
Offre d'emploi
Data Analyst sénior
Proxiad
Publiée le
Microsoft Excel
Python
SAS
40k-45k €
Lille, Hauts-de-France
🚀 Qui sommes-nous ? Proxiad est une ESN à taille humaine, attachée à la proximité, à la qualité de ses missions et à l’accompagnement de ses collaborateurs. Dans le cadre d’un projet stratégique chez l’un de nos clients, nous recherchons un Consultant Data / Analyst expérimenté pour accompagner la transformation de notre client. 🎯 Votre mission Vous jouerez un rôle clé dans l’analyse et la valorisation de la connaissance client afin d’éclairer les décisions stratégiques. À ce titre, vous serez amené(e) à : Analyser le portefeuille clients : segmentation, comportements, churn, fidélisation, valeur client Concevoir et piloter des études ad hoc à forte valeur stratégique Produire des tableaux de bord et indicateurs clés (Power BI) Identifier des opportunités de croissance et d’optimisation Formuler des recommandations claires et actionnables auprès des équipes métiers et de la direction Garantir la qualité, la cohérence et la fiabilité des données exploitées
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
898 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois