Trouvez votre prochaine offre d’emploi ou de mission freelance Data scientist

Le “Data Scientist” est le spécialiste Big Data en entreprise, chargé de la structuration des informations et de l'optimisation de la sécurité des données stockées, quel que soit leur volume. Sa mission : catégoriser avec soin les données pour éviter les risques de défaillance du système informatique. Il cherche ainsi à détecter de nouvelles failles potentiellement exploitables par les hackers et leur impact sur les activités de l'entreprise. In fine, il veille à proposer des solutions de protection efficaces. Cet expert de la gestion et de l'analyse de données massives est à la fois un spécialiste des chiffres, des statistiques et des programmes informatiques : il extrait de la valeur des données pour accompagner l'entreprise dans sa prise de décision stratégiques ou opérationnelles. Le “Data Scientist” collabore de manière transverse avec des profils variés : informaticiens, statisticiens, data analysts, data miners, experts marketing et webmarketing…
Informations sur la rémunération de la fonction Data scientist.

Votre recherche renvoie 108 résultats.
Freelance
CDI

Offre d'emploi
INGENIEUR MACHINE Learning Engineering

Publiée le
MySQL
Python

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Apache Kafka
Apache Spark
Hadoop

Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Freelance
CDI

Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)

Publiée le
Architecture
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Freelance
CDI

Offre d'emploi
Lead ML Engineering

Publiée le
Machine Learning

3 mois
Paris, France
Télétravail partiel
la prestation consistera à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Expertises requises pour réaliser la prestation de Lead Machine Learning Ingenieur : • Au moins 5 ans d’expérience dans un environnement data/machine learning • Expériences dans le développement de modèles de machine learning • Expériences dans le déploiement en production de modèles de machine learning • Expériences sur la Google Cloud Platform : Composer/CloudSQL/CloudRun/IAM • Expériences avec des technologies de type Flask, FastAPI, SQLalchemy, Pgvector, Pandas, Hugging face • Expériences intégrant les langages Python et SQL • Expériences intégrant Terraform et Terragrunt • Solides expériences intégrant du Machine Learning, Deep Learning et des concepts liés à l’IA • Solides connaissances des modèles et systèmes de recommandation • Solides connaissances en data : structures de données, code, architecture • Expériences utilisant Gitlab et Gitlab CI/CD • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Capacité à accompagner et à motiver une équipe technique • Expériences en méthodes Agile : de préférence Scrum ou Kanban
CDI

Offre d'emploi
Ingénieur DataOps IA

Publiée le
AWS Cloud
Google Cloud Platform (GCP)
IA Générative

France
Télétravail partiel
Au sein de l’équipe Data & IA, vous participerez activement à la mise en production et à la fiabilisation des plateformes de données et des modèles IA. Vous interviendrez sur les volets suivants : Développement et automatisation de pipelines Data/ML (ETL, CI/CD, orchestration). Industrialisation et monitoring des modèles de Machine Learning. Déploiement d’infrastructures Cloud sur GCP (Vertex AI, BigQuery, Dataflow, Cloud Run) et AWS (S3, Lambda, SageMaker). Implémentation d’une approche Infrastructure as Code (Terraform, CloudFormation). Optimisation de la performance, la sécurité et la résilience des environnements. Collaboration étroite avec les Data Scientists pour fiabiliser les déploiements de modèles IA.
Freelance

Mission freelance
Chef de Projet IA Générative Technique

Publiée le
Angular
IA Générative
Python

6 mois
510-620 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe d'innovation transverse au sein de la DSI Corporate d'un grand groupe du secteur Banque & Assurance. Cette équipe, composée d'une vingtaine d'experts (Data Engineers, Data Scientists, Développeurs Fullstack), agit en mode "commando" pour développer des solutions tactiques et innovantes au plus près des besoins métiers. L'un de nos axes majeurs actuels est l'accompagnement de l'ensemble des métiers du groupe dans la mise en œuvre de cas d'usage d'IA générative. En tant que Chef de Projet IA passionné et expérimenté, vous serez responsable du pilotage de projets liés à l'IA générative, en vous assurant que les solutions développées répondent parfaitement aux besoins des utilisateurs finaux. Vos Missions Principales : Pilotage et Recueil des Besoins : Collaborer étroitement avec les parties prenantes (métiers) pour identifier et analyser les besoins. Organiser et animer des ateliers de co-conception. Gestion de Projet : Élaborer et suivre le planning, coordonner les activités des développeurs (Python, Angular) et assurer le respect des délais. Conception Technique : Participer activement à la conception des solutions techniques en collaboration avec les développeurs, en veillant à l'alignement avec les besoins exprimés. Qualité et Tests : Assurer la qualité des livrables en mettant en place les processus de validation et de tests adéquats. Communication "Pivot" : Agir comme l'interface principale entre l'équipe technique et les métiers, en facilitant la compréhension mutuelle et en présentant régulièrement l'avancement. Veille Technologique : Rester à l'affût des dernières tendances dans le domaine de l'IA.
Freelance
CDI

Offre d'emploi
Développeur Data (Bordeaux)

Publiée le
Apache Kafka
DBT
Microsoft Power BI

3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Freelance
CDI

Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)

Publiée le
Cloudera
Google Cloud Platform (GCP)

1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Data Warehouse
Oracle
SQL

1 an
40k-45k €
260-460 €
Paris, France
Télétravail partiel
Descriptif du poste Mission dans une équipe en charge du contrôle et monitoring à partir d'un datawarehouse post trade. L'expertise devra apporter une expertise technique sur la base de données Oracle et son eco-système. Mettre en place et maintenir les outils et infrastructure adéquat à l'analyse de données. Une expertise sur les technologies BI est nécessaire ainsi qu'une expertise pointue sur les langages SQL et Python. Veiller aux déploiements des pipelines de données et en assurer la sécurisation technique. Enfin, être force de proposition sur les solutions techniques à mettre en place. L'automatisation des processus d'alimentation des données sera un objectif également. Cette mission recouvre une forte composante technique à la fois sur l'architecture des données et sur la mise à disposition des informations pour les data analyst/scientist de l'équipe tout comme un besoin de comprendre les données sous-jacentes liées à l'environnement.
Freelance
CDI

Offre d'emploi
Data Engineer Python / AWS

Publiée le
AWS Cloud
PySpark
Python

3 ans
Paris, France
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
CDI

Offre d'emploi
Data Ops

Publiée le
DevOps
Python

40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
CDI
Freelance

Offre d'emploi
Ingénieur IA/GenAI/MLOps

Publiée le
IA Générative

3 ans
40k-70k €
400-650 €
Île-de-France, France
Les principaux livrables attendus sont : - Référentiel des bonnes pratiques - Méthodes de Feature Engineering et de validation des données. - Compte-rendus des différents ateliers et réunions - Modèles et pipelines CI/CD - Livrables attendus dans le cadre de l’assurance qualité - Matrice des risques et plan de mitigation En tant qu’ingénieur(e) IA / MLOps, vos principales missions sont de : • Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. • Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. • Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. • Contribuer à la modélisation de votre portefeuille de cas d’usage. S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. o Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. o Challenger les approches proposées par les Data Scientists. • Piloter l’industrialisation et le déploiement des modèles IA o Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles o Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. o Construire et implémenter les pipelines, CI/CD, monitoring. o S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). • Garantir la qualité et la conformité o Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot o Auditer et valider les modèles / cas d’usage développés. o Garantir la qualité et la conformité des livrables avant mise en production. o Etablir la traçabilité : documentation, métadonnées, suivi des performances. o Être le point de contact technique privilégié pour les instances de validation. • Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. o Organiser la montée en compétence progressive et objectivée des juniors. • Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. • Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. Usage Interne / Internal Use Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Freelance

Mission freelance
[FBO] Data Engineer avec expertise MLOps

Publiée le
Planification
Python

3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Freelance
CDI

Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)

Publiée le
Agile Scrum
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Freelance

Mission freelance
Consultant Infrastructure

Publiée le
AWS Cloud

6 mois
400-500 €
Villeneuve-d'Ascq, Hauts-de-France
Au sein de la Business Unit Data, les équipes Data Platform sont chargées des outils et des bonnes pratiques pour les différents profils des équipes data. Nous accompagnons au quotidien l’ensemble des acteurs de la Data au sein du groupe et sommes responsables du maintien en condition opérationnelle de l'infrastructure de la DATA. Nous offrons également un accompagnement aux équipes techniques. L’équipe Data InfraOps innove tous les jours pour répondre au mieux aux besoins de notre plateforme. Nos enjeux sont : Une plateforme data entièrement multi-cloud (AWS-GCP) De la haute disponibilité, avec une plateforme résiliente et des technologies innovantes La sécurité au coeur de nos projets Les besoins de nos data scientist, data engineers data analystes, et développeurs traduits en solutions techniques. La mission est d’intervenir sur plusieurs produits de l’équipe. Le premier concerne, l’offre de compute via le service AWS EKS: Faire évoluer le produit à l’état de l’art et automatisation Récolter, comprendre, analyser et challenger les besoins utilisateurs (internes et externes à la plateforme) ; Ajouter et automatiser les nouveaux besoins; Mise à disposition de nouvelles ressources et accès en self service pour les projets; Maintien en condition opérationnelle et Support Assurer le maintien de l’offre en condition opérationnelle; Apporter un support de niveau 3; Suivre les évolutions du produit kubernetes et tout l’environnement CNCF; Sécurité et Observabilité S’assurer de la conformité de la sécurité des clusters Ajouter et maintenir les éléments d’observabilités des clusters Garantir la maintenabilité, l’évolutivité et la fiabilité du produit La deuxième mission concerne l’APIsation de la plateforme. Recenser les problématiques Ops et les traduire en solution technique dans le cadre d’une intercommunication entre les services de la plateforme via des API; Architecturer, Développer et maintenir les API; Assurer l’évolutivité et la maintenabilité des API La troisième mission consiste à animer techniquement l’équipe infraOps sur les bonnes pratiques DevOps : Assurer une automatisation en bout en bout de la chaîne de delivery des services; S’assurer de la qualité des livrables; Automatiser les process consommateurs en temps humain et source d’erreur; Sensibiliser l’équipe aux bonnes pratiques DevOps Les plus pour réussir : Mindset "Owner" et proactif : Ne pas se contenter de répondre aux demandes, mais anticiper les évolutions (technologiques et besoins utilisateurs), proposer des solutions d’amélioration continue et prendre la responsabilité de la qualité et de la performance des produits. Aptitude à la simplification et à l'automatisation totale : Avoir la conviction que toute tâche récurrente ou source d'erreur doit être automatisée. Savoir concevoir des solutions élégantes qui garantissent un véritable "self-service" pour les utilisateurs et une chaîne de livraison "end-to-end" fluide. Excellence en communication technique et pédagogie : Être capable de traduire des problématiques Ops complexes en solutions API claires, de challenger les besoins utilisateurs avec un esprit critique constructif, et surtout, d'animer et de transmettre les bonnes pratiques DevOps à l'équipe. Rigueur sur la sécurité et l'observabilité : Considérer la sécurité et l'observabilité non comme des tâches annexes, mais comme des éléments fondamentaux intégrés dès la conception, notamment dans l'environnement critique des clusters EKS. Veille technologique et innovation : Maintenir une curiosité constante sur l'écosystème CNCF (Kubernetes, etc.) et les tendances AWS, afin de maintenir l'offre de compute à l'état de l'art. Compétences : E

Les questions fréquentes à propos de l’activité d’un Data scientist

Quel est le rôle d'un Data scientist

À l'ère du Big Data, le Data Scientist est un peu l'évolution du Data Analyst. C'est un spécialiste de l'analyse et de l'exploitation de données au sein d'une entreprise. Son rôle est de donner du sens à ces données, afin d'en extraire de la valeur, pour permettre à l'entreprise de prendre des décisions stratégiques et/ou opérationnelles. Il fait partie des fonctions à haute responsabilité dans une entreprise.

Quels sont les tarifs d'un Data scientist

Le taux journalier moyen d'un freelance data scientist est d'environ 450 €/jour. Il peut varier en fonction des années d'expérience et de la position géographique du professionnel. Le salaire d'un data analyst débutant est de 35 K€. Le salaire du data scientist expérimenté, oscille entre 50 K€ à 60 K€.

Quelle est la définition d'un Data scientist

Le Data Scientist est un élément indispensable de l'entreprise, étant donné qu'il est chargé de l'analyse de données massives appelée Big Data. C'est lui qui gère la collecte, le stockage, l'analyse et l'exploitation de millions de données recueillies via différents canaux. Ces données servent à analyser les performances de l'entreprise, et à anticiper les comportements des consommateurs, ou les nouvelles tendances. C'est un domaine à la fois excitant et prometteur. Il génère de nouveaux challenges, et permet aux professionnels de toujours gagner en compétences. Le Data Scientist a de solides connaissances en marketing. Ce professionnel est très sollicité auprès des entreprises qui cherchent sans cesse à améliorer leurs performances et à rester compétitives. Après avoir terminé son analyse, le Data Scientist va alors rédiger un rapport où il explique ses conclusions à la direction, ou à son client.

Quel type de mission peut gérer un Data scientist

Le Data Scientist a pour principale mission de « prédire l'avenir ». La quantité importante de données que génèrent maintenant les entreprises peut se révéler très utile si elle est bien utilisée. Le scientifique des données pourra alors assurer le développement stratégique de l'entreprise, ainsi que sa transformation digitale. Pour y parvenir, il doit déchiffrer les masses de données opaques afin de leur donner un sens. Son rôle est donc de transformer des données en informations exploitables. Il pourra proposer à ses clients des solutions de pilotage IT pour répondre à des besoins spécifiques. Le fait de créer des algorithmes lui permettra d'anticiper sur les comportements et les besoins futurs, afin d'orienter des décisions importantes. C'est d'ailleurs cette forme de créativité qui le distingue du Data Analyst. Grâce à son expertise, le Data Scientist doit pouvoir présenter des propositions innovantes et pertinentes à ses clients, implémenter et déployer des modèles de machine learning, et enfin communiquer ses conclusions aux services concernés. Il peut intervenir pour des projets à court, ou à moyen terme.

Quelles sont les compétences principales d'un Data scientist

Le Data Scientist doit maîtriser de nombreux savoir-faire pour bien effectuer ses missions. Nous pouvons en mentionner quelques-uns : • Être capable d'analyse efficacement des données statistiques et les modéliser • Avoir une bonne connaissance des outils de programmation et du langage informatique • Maîtriser les techniques de visualisation des données • Posséder de fortes affinités pour le marketing • Avoir le sens des affaires et une bonne aptitude à la communication • Être rigoureux, organisé, avec une force de proposition • Pouvoir respecter la confidentialité des données • Savoir travailler en équipe, sous pression et gérer le stress • Mener une veille IT

Quel est le profil idéal pour un Data scientist

De nombreuses écoles commencent à offrir des diplômes en mathématiques et applications avec spécialité statistique, ingénierie Big Data, ou analyse des données massives. Il existe aussi d'autres formations permettant d'accéder au métier de Data Scientist, notamment en école supérieure d'informatique, de statistique, ou en école d'ingénieur. Il faudra tout de même justifier d'une expérience de 4 à 5 ans dans l'analyse de données ou dans un environnement datacenter.
108 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous