L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 118 résultats.
Mission freelance
Architecte Data GCP
Publiée le
Architecture
Google Cloud Platform (GCP)
Python
3 mois
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
Mission freelance
Data Scientist - (h/f)
Publiée le
12 mois
400-450 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ce poste vise à exploiter les données grâce à des modèles statistiques et des analyses avancées afin de faciliter des décisions commerciales éclairées et d’optimiser les résultats. Responsabilités : Développer des modèles statistiques et des algorithmes en utilisant une approche expérimentale et de découverte. Exécuter une modélisation avancée des données pour extraire des insights et des prédictions. Créer une chaîne analytique complète incluant la transformation, la structuration, la modélisation, la visualisation et l’obtention d’insights exploitables. Utiliser divers outils et méthodes pour appliquer des analyses avancées aux défis métier et optimiser les résultats. Compétences : Maîtrise de la modélisation statistique et des algorithmes. Expérience dans l’exécution de modèles de données avancés. Solides compétences en transformation et visualisation des données. Capacité à créer des insights exploitables à partir des données. Bons à avoir : • Familiarité avec les techniques d’apprentissage automatique. • Expérience avec des outils de visualisation de données comme Tableau ou Power BI. • Connaissance des stratégies d’optimisation métier.
Mission freelance
Data Engineer/ Expert GCP
Publiée le
BigQuery
Cloud
Data science
12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Offre d'emploi
Data scientist
Publiée le
Python
40k-60k €
Paris, France
Télétravail partiel
Ce rôle de Data Scientist est une nouvelle création de poste, avec un démarrage envisagé en janvier 2026 . Le Data Scientist rejoindra l'équipe pour travailler sur des projets d'analyse de données, d'apprentissage automatique (Machine Learning - ML), de collecte de données et de développement d'applications/solutions. Les principales responsabilités incluent : L'analyse approfondie de la donnée. La récolte et le traitement des jeux de données. Le développement et l'implémentation de modèles de Machine Learning. Le déploiement des solutions développées.
Mission freelance
Data engineer senior H/F
Publiée le
Google Cloud Platform (GCP)
HFSQL
Python
2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Mission freelance
Data Scientist (h/f)
Publiée le
1 mois
400-450 €
95000, Cergy, Île-de-France
Télétravail partiel
Introduction & Résumé: Le rôle de Data Scientist est essentiel pour analyser la performance des outils de prévision au sein du département de Recherche Opérationnelle, contribuant ainsi à l'optimisation des revenus de l'entreprise. Le candidat idéal possède une connaissance approfondie de la modélisation mathématique et statistique, ainsi que des compétences en Machine Learning et en Python. Principales Responsabilités: Le Data Scientist Junior aura pour mission de: Analyser la performance d’un moteur de prédiction lié à l’overbooking. Contribuer à d'autres moteurs de prédiction et d'optimisation dans le projet FIT (Freight Intelligence Techniques). Exigences Clés: Connaissance approfondie de la modélisation mathématique et statistique. Compétences en Machine Learning. Maîtrise des bonnes pratiques Python. Expérience avec les outils : Spark, Python, Git, Bash, SQL. Compréhension des environnements Unix/Linux. Bon niveau d’Anglais écrit et oral. Expérience avec GCP (Google Cloud Platform). Doctorat en Mathématiques ou en Physique. (est un plus). Autres détails: Ce poste est basé à Paris et Amsterdam, au sein du département de Recherche Opérationnelle.
Offre d'emploi
Data Engineer
Publiée le
Data Warehouse
Oracle
SQL
1 an
40k-45k €
260-460 €
Paris, France
Télétravail partiel
Descriptif du poste Mission dans une équipe en charge du contrôle et monitoring à partir d'un datawarehouse post trade. L'expertise devra apporter une expertise technique sur la base de données Oracle et son eco-système. Mettre en place et maintenir les outils et infrastructure adéquat à l'analyse de données. Une expertise sur les technologies BI est nécessaire ainsi qu'une expertise pointue sur les langages SQL et Python. Veiller aux déploiements des pipelines de données et en assurer la sécurisation technique. Enfin, être force de proposition sur les solutions techniques à mettre en place. L'automatisation des processus d'alimentation des données sera un objectif également. Cette mission recouvre une forte composante technique à la fois sur l'architecture des données et sur la mise à disposition des informations pour les data analyst/scientist de l'équipe tout comme un besoin de comprendre les données sous-jacentes liées à l'environnement.
Mission freelance
Data Scientist GenAI & Business Analyst
Publiée le
Business Analysis
IA Générative
RAG
3 ans
250 €
Porto, Portugal
🔍 Nous recherchons un(e) Data Scientist spécialisé(e) en GenAI / RAG prêt(e) à vivre une nouvelle aventure au PORTUGAL ! ☀️ Vous interviendrez en tant que Business Analyst GenAI sur le traitement de cas d'usages (RAG / Agents conversationnels) et la gestion d'une plateforme Low Code 🎯 Vos missions principales : ✅ Comprendre les besoins métiers & techniques et les traduire en spécifications ✅ Gérer et enrichir la base documentaire alimentant les agents conversationnels ✅ Faire évoluer la plateforme Low Code : corrections, évolutions, nouvelles features ✅ Collaborer au quotidien avec les développeurs Java & équipes techniques ✅ Intégrer des chatbots et accompagner la mise en production ✅ Challenger les usages métiers, cadrer les besoins, créer la vision produit ✅ Participer aux travaux autour du RAG, embeddings et base vectorielle interne
Offre d'emploi
Data Ingénieur DBT - Snowflake (H/F)
Publiée le
DBT
1 an
45k-55k €
470-560 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer spécialisé DBT et Snowflake pour rejoindre une équipe Data et participer à la construction, l’optimisation et l’industrialisation d'une plateforme analytique moderne. Vous interviendrez au cœur des pipelines de données pour garantir la fiabilité, la scalabilité et la performance des modèles. En tant que Data Engineer, vous serez en charge de : 1. Développement & modélisation Modéliser, transformer et documenter les données à l’aide de DBT (models, tests, macros). Construire et optimiser les modèles dans Snowflake (warehouse, schemas, performance tuning). Développer et maintenir des pipelines data robustes (batch ou streaming selon contexte). 2. Architecture & DataOps Participer à la conception de l’architecture Data (Data Lake / Data Warehouse). Mettre en place des bonnes pratiques en versionning, CI/CD et monitoring autour de DBT. Assurer la qualité, la cohérence et la gouvernance des données. 3. Collaboration & support Travailler étroitement avec les Data Analysts, Data Scientists et équipes métier. Documenter les transformations pour assurer la transparence et la traçabilité. Participer à l'amélioration continue des standards Data. Stack technique DBT (core ou cloud) Snowflake SQL avancé Git / CI-CD (ex : GitLab, Github Actions, CircleCI) Orchestrateurs : Airflow, Dagster ou équivalent (souhaité) Langages : Python (souhaité)
Offre d'emploi
Data Scientist Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Au sein de la Direction Data (Direction du Numérique), l'équipe Data Science (4 DS, 2 DA) recherche un Data Scientist pour renforcer l'analyse d'usages et le pilotage. La Direction Data poursuit trois missions principales : maximiser la collecte conforme, développer la connaissance et l'expérience utilisateurs, et fournir des outils de pilotage et d'aide à la décision. Activités Attendues Audit et enrichissement du socle de données (nouvelles données du datalake) Exploration et analyses des profils et comportements (par canaux d'acquisition et contenus) et impact de la pression publicitaire Mise en place de cas Data Science : compréhension besoin métier, choix d'approches, vulgarisation Prévision d'audience, segmentation utilisateurs, prédiction inactivité/appétence/churn Analyses sémantiques de commentaires ; enrichissement de catalogue via l'IAG Profil Recherché Niveau d'expérience requis : 8 ans en data science (profil senior >5 ans) Expériences IA : Prévisions Recommandation Score d'appétence Anti-churn Sémantique Détection d'anomalies IAG
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Mission freelance
Data Scientist - Expertise OpenMetaData
Publiée le
API
Collibra
DataGalaxy
2 mois
520 €
France
Télétravail 100%
Profil : architecte ayant des connaissances sur l'implémentation de l'outil et son utilisation Attendus : Apporter un retour d’expérience concret (REX) sur la mise en oeuvre d’ OpenMetadata dans un contexte comparable. Challenger la position d’ OpenMetadata au sein de la data stack cible imaginée, en interaction avec les autres briques de la plateforme : ingestion, stockage, Transformation, visualisation, sécurité et gouvernance. Former les équipes socle sur : L’architecture fonctionnelle et technique d’OpenMetadata Les principaux cas d’usage (catalogue, lineage, quality, policy, tagging, etc.) Les modalités d’intégration (connecteurs, API, ingestion metadata). Orienter la stratégie de gouvernance en précisant Le positionnement d’OpenMetadata dans un écosystème comprenant un data catalog fonctionnel déjà existant (Zeenea) Les complémentarités et limites avec d’autres outils du marché (ex. Collibra, Atlan, DataGalaxy, etc.) Explorer plus particulièrement 2 sujets clés : Open Lineage : Intégration, couverture, limites, exploitation pour le suivi de la chaîne de valeur des données. Habilitations & Taggage : Fonctionnement natif d’OpenMetadata, articulation possible avec Apache Ranger et/ou Apache Atlas, gestion des rôles, politiques et classification des données.
Mission freelance
Mission Freelance – Data Scientist (Confirmé / Sénior)
Publiée le
Data science
1 an
400-590 €
Île-de-France, France
Télétravail partiel
Vos missions Construire et maintenir des dashboards Power BI de pilotage : profils utilisateurs, engagement, objectifs, segmentation RF. Réaliser des analyses comportementales sur les profils de vidéonautes : consommation, canaux d’acquisition, pression publicitaire, etc. Développer des cas d’usage Data Science et IA : Prédiction des audiences, churn, appétence, inactivité. Recommandations de contenus, enrichissement du catalogue via IA générative. Segmentation utilisateurs et scoring. Valoriser et restituer les résultats aux équipes internes (marketing, produit, éditorial). Compétences recherchées Solide expérience en analyse de la connaissance client / utilisateur (cycle de vie, churn, fidélisation). Maîtrise de Python et SQL (Spark apprécié). Expérience confirmée en Data Science : modèles de prévision, algorithmes de recommandation, scoring. Connaissance d’un environnement GCP / BigQuery . Bonne compréhension des outils Piano Analytics / Google Analytics . Capacité à vulgariser les résultats à des interlocuteurs variés. Esprit d’équipe, curiosité, rigueur et autonomie.
Mission freelance
Data Scientist / GenAI /LLM
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Télétravail 100%
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Offre d'emploi
Data Scientist – Senior
Publiée le
Deep Learning
Domino
Git
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Rejoignez la Tribe AI et contribuez au développement d’applications d’intelligence artificielle générative. Vos missions : Créer des applications IA pour améliorer l’expérience client et les processus internes. Travailler sur Prompt Engineering, RAG, Fine-tuning et NLP. Déployer et monitorer des modèles en production. Collaborer dans un environnement agile et innovant.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Passage sasu à eurl: transition mutuelle/prévoyance
- Décider quand on est freelance selon ses chiffres
- Résultat négatif veut dire CCA débiteur donc illégal ?
- Transfert d'activité - cession du fond de commerce
- Mise à jour info-retraite
118 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois