Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 748 résultats.
Freelance

Mission freelance
Chef de Projet Data / Flux (F/H)

CELAD
Publiée le

1 an
450-500 €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de piloter des projets stratégiques autour de la data et des plateformes SI ? Dans le cadre de l’évolution de ses plateformes, l’un de nos clients grands comptes renforce son centre de solution métier dédié aux Flux Data et recherche un.e Chef.fe de Projet pour piloter plusieurs chantiers structurants. Vous interviendrez dans un environnement technique riche, en coordination avec les équipes SI, les DevSecOps et les différentes parties prenantes. Voici un aperçu détaillé de vos missions : - Piloter des projets de migration d’outils collaboratifs vers des environnements Cloud - Superviser le déploiement d’une plateforme d’API Management - Identifier les différents chantiers et sous-chantiers liés aux projets - Construire la timeline projet et les jalons clés - Suivre l’avancement des travaux et gérer les incidents éventuels - Coordonner les phases de recette et TNR avec les équipes métiers - Contribuer à la définition des stratégies de tests - Assurer la communication projet auprès des équipes SI - Suivre le budget, les charges et les délais - Identifier et gérer les risques et retards potentiels - Piloter les études autour des plateformes ETL, Bus de Services et solutions d’autorisation - Accompagner les ESN et experts techniques en charge des études - Organiser les ateliers de recueil des besoins et de restitution - Superviser la production et la validation des livrables - Challenger les études produites et proposer des axes d’amélioration - Assurer la coordination avec les équipes DevSecOps et les différentes parties prenantes
CDI

Offre d'emploi
Data Engineer

Recrut Info
Publiée le
AWS Cloud
Data Lake
Python

45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Freelance

Mission freelance
Ingénieur DATA

HAYS France
Publiée le
Python
SQL

6 mois
350-510 €
Lille, Hauts-de-France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand acteur du retail, nous recherchons un Data Engineer capable d’intervenir sur des sujets variés autour de la Finance et de la Supply Chain . L’environnement est agile, pragmatique, peu structuré (non bancaire), nécessitant une vraie capacité d’adaptation et une forte autonomie. Missions 🔹 Développement & Intégration de données Conception et développement de pipelines Stambia Modélisation, optimisation et transformations de données dans Snowflake Développement et maintenance de modèles DBT (tests, documentation, exposures) Contribution aux bonnes pratiques : Git, qualité, tests, CI/CD 🔹 Finance Refonte de dashboards réseau Travaux autour du compte d’exploitation Amélioration de la fiabilité et disponibilité des données financières 🔹 Supply Chain Mise en place de KPI logistiques (WSR, SOTR…) Industrialisation des datasets existants ou à construire 🔹 Outils & Automatisation Participation au développement d’outils internes en Python / Streamlit (selon compétences)
Freelance

Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F

Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)

6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Freelance
CDI

Offre d'emploi
Architecte Data

R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop

1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
CDI

Offre d'emploi
Data analyst (F/H)

█ █ █ █ █ █ █
Publiée le

Orléans, Centre-Val de Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Analyst Power BI confirmé (H/F)

Lùkla
Publiée le
BI

6 mois
Le Havre, Normandie
Dans le cadre de plusieurs projets BI, nous recherchons un Consultant Power BI / Data Analyst confirmé afin d’accompagner nos équipes et nos clients dans la conception et l’évolution de solutions décisionnelles. Vous interviendrez sur des projets de valorisation de la donnée, de création de tableaux de bord et d’industrialisation de reportings , en lien avec les équipes métiers et techniques. Vos principales missions seront : Recueillir et analyser les besoins métiers en matière de reporting et d’analyse de données Concevoir et développer des tableaux de bord et rapports Power BI Modéliser les données (schémas en étoile ou en flocon) afin d’optimiser la performance des analyses Préparer et transformer les données via Power Query Créer des mesures et indicateurs via DAX Connecter Power BI à différentes sources de données (bases SQL, fichiers, API, data platforms) Assurer la qualité et la cohérence des données présentées Mettre en place des mécanismes de sécurité (RLS) si nécessaire Accompagner les utilisateurs dans la prise en main des outils et dashboards Vous interviendrez dans des environnements data variés (bases relationnelles, data warehouse, plateformes cloud, etc.).
CDI

Offre d'emploi
Data Analyst douane (H/F)

█ █ █ █ █ █ █
Publiée le

38k-45k €
Vélizy-Villacoublay, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Mission Freelance – Security Expert Data & AI (H/F)

Comet
Publiée le
Big Data
Cybersécurité

1 an
400-580 €
Île-de-France, France
Dans le cadre d’un programme stratégique Data & AI à forte visibilité, nous recherchons un Expert Cybersécurité Data & Intelligence Artificielle pour accompagner la sécurisation de services et plateformes IA à l’échelle d’un grand groupe international. Contexte de la mission Vous intervenez au sein d’équipes Data & Analytics afin de garantir la sécurité des plateformes, services et usages IA , en lien étroit avec les équipes IT, sécurité et métiers. Missions principales Intégration de la sécurité dès la conception des projets Data & AI (security by design) Accompagnement des équipes projets et des responsables sécurité métiers Pilotage de la conformité sécurité (audits, plans de remédiation, reporting) Gestion et contribution aux incidents de cybersécurité Définition et déploiement de standards, règles et baselines sécurité Sensibilisation et montée en compétence des parties prenantes
Freelance
CDI

Offre d'emploi
Data engineer

SKYLLIT
Publiée le
Docker
Github
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Profil Data Engineer/Data Analyst Senior pour gérer des applications liées au métier de la CDMO (Chief Digital & Marketing Office), dans une équipe dynamique aux profils variés (Tech Lead, Dev Full Stack, Data Scientist, Product Owner, QA...) Une des applications One Creative consiste à offrir une vision complète de la performance & l'optimisation de chaque asset media, de la stratégie globale à l'activation locale. o Développer et maintenir les data pipelines de : · Sourcing des données (Datalake BigQuery) · Téléchargement d'assets vidéo via API social media platforms · Analyse créative (application interne Augmented DAM) · Automatisation des processus IA (embedding, clustering) o Transformer la donnée brute du Datalake en tables optimisées pour l'application One Creative (fusion KPIs de performance, métadonnées, données créatives...) o Optimiser le déploiement du backend sur GCP o Améliorer la code base en ajoutant des tests unitaires et d'intégration sur le code Python o Développer une première brique de monitoring des données récupérées (assets, KPIs) o Moderniser les briques techniques (thumbnail, product-detection, encoder) avec des approches plus modernes et optimisées o Optimiser la chaîne CI/CD o Travailler sur la migration du backend Augmented DAM (autre application interne utilisée en tant que service de One Creative) o Développer les requêtes SQL pour sourcer les données dans les tables du Datalake, sur la base des inputs du Data Business Owner o Documenter les données récupérées depuis le Datalake avec des documents et des schémas des données o S'assurer de la qualité des données consolidées dans l'application par rapport aux données sources o Aider sur le développement des métriques de monitoring des KPIs de l'application o Analyser et croiser les données pour générer de nouveaux insights (creative data qui génèrent le plus de performance...) et benchmarks
CDI

Offre d'emploi
Chef de Projet Data / Flux (F/H)

CELAD
Publiée le

50k-55k €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de piloter des projets stratégiques autour de la data et des plateformes SI ? Dans le cadre de l’évolution de ses plateformes, l’un de nos clients grands comptes renforce son centre de solution métier dédié aux Flux Data et recherche un.e Chef.fe de Projet pour piloter plusieurs chantiers structurants. Vous interviendrez dans un environnement technique riche, en coordination avec les équipes SI, les DevSecOps et les différentes parties prenantes. Voici un aperçu détaillé de vos missions : - Piloter des projets de migration d’outils collaboratifs vers des environnements Cloud - Superviser le déploiement d’une plateforme d’API Management - Identifier les différents chantiers et sous-chantiers liés aux projets - Construire la timeline projet et les jalons clés - Suivre l’avancement des travaux et gérer les incidents éventuels - Coordonner les phases de recette et TNR avec les équipes métiers - Contribuer à la définition des stratégies de tests - Assurer la communication projet auprès des équipes SI - Suivre le budget, les charges et les délais - Identifier et gérer les risques et retards potentiels - Piloter les études autour des plateformes ETL, Bus de Services et solutions d’autorisation - Accompagner les ESN et experts techniques en charge des études - Organiser les ateliers de recueil des besoins et de restitution - Superviser la production et la validation des livrables - Challenger les études produites et proposer des axes d’amélioration - Assurer la coordination avec les équipes DevSecOps et les différentes parties prenantes
CDI

Offre d'emploi
Product Owner - Data H/F

CONSORT GROUP
Publiée le
JIRA

40k-46k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Product Owner - Data H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la data et la gestion de produit en environnement Agile ? Ce poste est fait pour vous. En tant que Product Owner Data , vous êtes responsable du pilotage des besoins métiers et de la coordination des équipes techniques de notre écosystème : Côté build : Analyser et comprendre les besoins métiers liés aux solutions data Formaliser les besoins fonctionnels et rédiger les user stories Co-construire les solutions avec les équipes du train SAFe Perso Reco Participer à la modélisation et à la structuration des solutions data Piloter le développement, l’intégration et le déploiement des solutions Animer les échanges entre équipes métiers et techniques Côté run : Suivre la performance des solutions data en production Garantir la cohérence entre développement, tests et production Vérifier le respect des standards techniques et des règles de sécurité Assurer la conformité fonctionnelle des solutions livrées Identifier les risques et proposer des actions correctives Assurer le reporting d’avancement et le suivi des objectifs délais / budgets Collaborer avec les partenaires techniques et gérer les intégrations C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements exigeants. Vous aimez traduire les besoins métiers en solutions concrètes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Gestion de projet en mode Agile SAFe JIRA C’est votre manière de faire équipe : Esprit d’analyse et sens de la communication Collaboration et capacité à fédérer les équipes C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : 2j Salaire : De 40 000€ à 46 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Data Manager (H/F)

Insitoo Freelances
Publiée le
Data governance
Data quality

2 ans
400-450 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Manager (H/F) à Hauts-de-France, France. Les missions attendues par le Data Manager (H/F) : Gouvernance des données • Définir les standards de gestion et gouvernance des données. • Assurer la mise en conformité avec les réglementations (RGPD, CCPA). Qualité et sécurité • Mettre en place des contrôles automatisés et surveiller la qualité des données. • Sécuriser les accès et protéger les données sensibles. Exploitation et partage • Standardiser les processus d’accès aux données. • Accompagner les équipes métiers dans leur exploitation des données. Éthique et conformité • Vérifier la conformité des analyses et modèles. • Sensibiliser les équipes à l’éthique des données. Compétences • Gouvernance : Standards, gestion des métadonnées. • Sécurité : Chiffrement, contrôle des accès. • Architecture : Structuration des modèles de données en couche Business, Solution et Exposition • Collaboration : Formation, animation de workshops • Expérience utilisateur : Storytelling, recueils feedback Indicateurs de performance • Taux de conformité aux standards. • Qualité des données et réduction des erreurs. • Performance des processus de gouvernance. • Sécurisation et protection des données.
Freelance

Mission freelance
DATA SCIENTIST

Codezys
Publiée le
Azure
Azure AI Foundry
Azure DevOps Services

12 mois
450-500 €
Nanterre, Île-de-France
Description détaillée : VOTRE MISSION Concevoir et industrialiser des solutions d’intelligence artificielle générative (modèles de langage de grande taille, agents intelligents, RAG) en réponse aux besoins identifiés par la cellule AI Catalysts, priorisés par le Product Owner (PO). Intégrer ces composants GenAI au sein de l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de gestion des coûts. Définir et mettre en œuvre les architectures techniques appropriées : sélection des modèles, orchestration des agents, conception des systèmes RAG, gestion des sessions utilisateur. Développer et maintenir le code, principalement en Python, ainsi que les composants réutilisables tels que les librairies de prompts et d’agents. Industrialiser le déploiement des solutions via la conteneurisation (Docker), l’orchestration Kubernetes, les pipelines CI/CD, l’Infrastructure as Code (Terraform), et assurer le suivi opérationnel (monitoring). Appliquer les bonnes pratiques MLOps : suivi des expérimentations, versioning des modèles, tests de régression, validations en environnement pré-production. S’assurer de la qualité, de la performance et de l’observabilité des solutions : mise en place de métriques, tests adversariaux, surveillance des dégradations en production. Collaborer étroitement avec le Product Owner, les ingénieurs logiciels, les AI Catalysts et la DSI afin d’assurer la sécurité et l’adoption des solutions proposées. Participer à la documentation, à la création de templates, ainsi qu’à la formation des équipes internes. Profil recherché : Data Scientist Responsable du développement d’algorithmes en Machine Learning et Intelligence Artificielle, visant à générer de la valeur métier à partir de données (structures, non structurées, vidéos, images, etc.). Capable de comprendre et d’interroger les demandes de l’entreprise pour fournir des solutions optimales. Apporte un support stratégique à la décision, notamment en proposant des innovations, en améliorant les performances et en optimisant le service client. Participe à l’industrialisation des projets de Data Science en collaboration avec les Data Engineers. Assure la maintenance et la documentation des algorithmes industrialisés, conformément aux rôles et responsabilités définis par le projet. Localisation : Paris – Niveau avancé (minimum 9 ans d’expérience dans le domaine) Ce descriptif ne doit pas dépasser 3000 caractères, intégrant l’ensemble des éléments en HTML pour garantir une mise en forme claire et professionnelle.
Freelance

Mission freelance
Un Data Analyst Confirmé Sur Boulogne Billancourt

Almatek
Publiée le
Data analysis

4 mois
400-500 €
Boulogne-Billancourt, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Confirmé Sur Boulogne Billancourt. Profil recherché : Data Analyst > à 5 ans 5+ years in log analytics, observability, or web platform monitoring • Experience with enterprise-scale websites • Strong analytical mindset and ability to translate data into actionable recommendations • Able to work autonomously and advise at both technical and strategic levels Contexte : We seek a consultant to design and implement a monitoring and analytics framework that enables proactive detection, analysis, and mitigation of traffic spikes, anomalies, and performance or cost risks across our web platform. Environnement The platform includes: • Adobe Experience Manager (AEM) as a Cloud Service • Cloudflare (edge protection & bot management) • CDN layer (Fastly) • Google Analytics 4 • Log analysis via Splunk (or Microsoft Fabric in the future) Scope of Work : Dashboard & Monitoring • Analyse the needs for the case at hand • Build unified dashboards correlating AEM, CDN, Cloudflare, and analytics data • Visualize traffic trends, cache performance, request types, and error patterns Alerting • Configure proactive alerts for spikes, anomalies, bot surges, and abnormal API usage • Implement threshold-based and anomaly-based detection Analysis & Optimization • Interpret log data and traffic events • Identify causes of spikes or anomalies • Recommend improvements (caching, rate limiting, WAF rules, log enrichment, etc.) Knowledge Transfer • Provide documentation and walkthroughs to ensure internal teams can operate and extend the solution Required Expertise : • Strong experience with AEM logs and request flows • Experience analysing Cloudflare logs and CDN behaviour • Solid knowledge of Google Analytics 4 data structures • Advanced skills in Splunk SPL and dashboarding (or equivalent experience with Microsoft Fabric/KQL) • Deep understanding of: o HTTP, caching, and CDN architectures o Bot detection and traffic segmentation o Large-scale web traffic analysis
CDI

Offre d'emploi
Data Scientist / Développeur Python – Data & Analytics

TOHTEM IT
Publiée le

40k-55k €
Paris, France
Contexte de la mission Dans le cadre du renforcement d’une équipe projet , nous recherchons un Data Scientist / Développeur Python pour intervenir sur des sujets liés au développement et à la valorisation de données . La mission s’inscrit dans un environnement technique orienté analyse, traitement et exploitation de données , avec pour objectif de concevoir et améliorer des composants permettant d’extraire de la valeur à partir de jeux de données complexes. Missions principales Analyser les besoins fonctionnels et participer à la conception technique des solutions Développer des traitements et scripts Python dédiés à l’analyse et à la transformation de données Manipuler, préparer et structurer des jeux de données Concevoir, améliorer ou intégrer des modèles de data science Participer à l’ industrialisation des traitements et des modèles Réaliser les tests, corrections d’anomalies et optimisations Contribuer à la documentation technique Participer aux échanges avec l’équipe projet et au suivi des travaux Livrables attendus Développements Python documentés Scripts et traitements de manipulation et d’analyse de données Jeux de tests et validation des traitements Modèles ou traitements de data science intégrés Documentation technique associée Correctifs et évolutions conformes aux exigences du projet Environnement technique Data & Développement Python Data Science Traitement et analyse de données Manipulation de jeux de données Outils & Plateformes Tableau Vertica DSS (Data Science Studio) Bonnes pratiques Développement de scripts et traitements de données Tests et debugging Documentation technique Travail collaboratif en équipe projet ⭐ Compétences clés (obligatoires) Python Data Scientist Tableau Vertica DSS

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5748 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous