Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 278 résultats.
Freelance

Mission freelance
Responsable AMOA et gouvernance SI/DATA

infotem
Publiée le
AMOA
Data management

6 mois
400-450 €
Île-de-France, France

Management d’équipe · Encadrer, animer et développer les compétences de l’équipe AMOA et gouvernance SI/DATA. · Organiser la charge et prioriser les sujets en lien avec la feuille de route SI interne. · Favoriser la collaboration transverse avec les autres équipes de la DSI et les métiers. Conduite de projets et transformation AMOA SI/DATA · Accompagner les directions métiers dans l’expression de besoin, le cadrage et la mise en œuvre de solutions SI adaptées. · Piloter certains projets de bout en bout : cadrage, gouvernance, planification, suivi, reporting, tests, recettes, mise en production. · Rédiger les spécifications fonctionnelles, la documentation projet et coordonner les validations. · Organiser et animer les ateliers de travail et de conduite du changement. · Garantir le respect des coûts, délais, qualité et sécurité des projets confiés · Veiller à l’harmonisation et à la bonne traduction des processus dans les différentes briques du SI Interne Urbanisation SI et gouvernance des données · Animer et déployer la gouvernance de la donnée au sein de l’entreprise, et accompagner l’acculturation des métiers à ses enjeux. · Définir et mettre en œuvre la gestion des référentiels internes (clients, produits, projets…). · Maintenir et enrichir la documentation fonctionnelle, les dictionnaires de données et les KPIs. · Assurer la qualité et la conformité des données dans les projets SI. · Établir et maintenir la cartographie des SI métiers. · Réaliser des études d’opportunité et de faisabilité pour orienter les choix SI sur les périmètres prioritaires · Piloter la feuille de route des projets SI transverses et leurs instances de gouvernance dédiées

Freelance
CDI

Offre d'emploi
Data Engineer Azure Data Factory

adbi
Publiée le
Azure Data Factory
Azure DevOps
DAX

1 an
45k-55k €
550-650 €
Île-de-France, France

Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor

Freelance
CDI

Offre d'emploi
Business Analyst Data Collibra

1G-LINK CONSULTING
Publiée le
Collibra
Data governance
Snowflake

1 an
La Défense, Île-de-France

Dans le cadre du développement de la data marketplace d'un de nos clients et de la mise en place d’une vision 360° client, nous recherchons un Business Analyst spécialisé Data . Vos missions : Organiser l'étude et recueillir les éléments de toutes les parties prenantes Comprendre l'ambition, les enjeux et les objectifs de l'entreprise Organiser et diriger des ateliers avec les entreprises Alimenter le semantic model / référentiel pour une vision 360° client. Recueillir les besoins métiers et concevoir les modèles sémantiques. Collaborer avec les équipes data

Freelance
CDI

Offre d'emploi
Architecte fonctionnel transverse- Île de France (H/F)

RIDCHA DATA
Publiée le
API
Confluence
TOGAF

1 an
Vélizy-Villacoublay, Île-de-France

🎯 Contexte Au sein de la DSI, dans le département Études d’architecture , vous interviendrez en tant qu’ Architecte fonctionnel transverse sur plusieurs périmètres clés : Vie Client, Service Après-Vente (SAV), Gestion financière, sécurisation des API et gestion des identités. Votre rôle principal sera de définir les solutions d’architecture fonctionnelle transverses et d’analyser leurs impacts sur les applications et systèmes techniques existants. 📌 Objectifs et tâches principales Réaliser les cadrages des projets. Co-construire la solution avec les métiers : challenger les besoins, proposer des lotissements. Préparer et suivre l’ engagement des études fonctionnelles . Animer des ateliers de co-construction avec les équipes de développement et les métiers. Rédiger les spécifications d’architecture et les exigences fonctionnelles . Assurer le support fonctionnel tout au long de la réalisation. 📑 Livrables attendus Documents de cadrage. Fiches d’engagement d’étude. Spécifications fonctionnelles rédigées (sous Confluence). Liste des processus et use cases impactés ou créés. Diagrammes d’activité. Schémas d’architecture. Diagrammes de séquence. 📍 Lieu de la mission La mission est basée en Île-de-France

Freelance
CDI

Offre d'emploi
DATA SCIENTIST SENIOR (500€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-65k €
360-500 €
Île-de-France, France

● Discuter avec les équipes opérationnelles et dirigeantes pour identifier leurs difficultés et réfléchir comment le machine learning peut les aider à les résoudre. ● Évaluer la qualité des données, les nettoyer, les agréger et mener des études adhoc. ● Concevoir, implémenter et comparer différents algorithmes et méthodes statistiques. ● Concevoir et mener des protocoles de test en conditions réelles (magasins, entrepôts…). ● Mettre en production, maintenir et itérer sur les solutions. ● Guider et former des data scientists juniors. Vous pourrez également participer aux échanges réguliers de notre communauté d’une quarantaine d'ingénieurs (data scientists, engineers, devops) : séminaires, partage de retours de conférences, débats sur les problématiques ML et développement logiciel. En tant que Data Scientist Senior, vous rapporterez au Engineering Manager de votre équipe.

Freelance

Mission freelance
Ingénieur Automatisation & Data IA

Codezys
Publiée le
API
API Platform
Azure

3 mois
450-500 €
Créteil, Île-de-France

Métier et Fonction : Études & Développement Ingénieur Spécialités technologiques : Cloud Monitoring Intégration de données IA générative API Type de facturation : Assistance Technique avec un taux journalier Compétences clés : Technologies et Outils : SQL, Synapse, REST, Azure Soft skills : Autonomie, Rigueur Description de la prestation : Pour un client du secteur du transport, recherche d'un Ingénieur automatisation & Data IA. La mission consiste à mettre en place et orchestrer des flux d’automatisation et d’analyse de données en utilisant : IA générative (OpenAI) Data warehouse cloud (Azure Synapse) Outils d’automatisation de workflows (n8n) Objectifs : optimiser les processus internes, améliorer la productivité des équipes, fiabiliser l’exploitation des données. Les missions incluent : Conception et déploiement de solutions d’automatisation : création, surveillance et maintenance de workflows intégrant diverses sources (API, bases de données, outils internes) Exploitation de l’IA générative : intégration des services OpenAI (chat, embeddings, fine-tuning) dans les flux opérationnels Gestion de la donnée : mise en place et optimisation de pipelines d’ingestion et d’analyse dans Azure Synapse, incluant sources multiples et en temps réel Optimisation et gouvernance : performance des requêtes SQL, sécurité (RBAC, data masking), gestion des coûts liés aux API et au cloud Support et évolution : monitoring, debugging, amélioration continue des flux pour répondre aux besoins métiers

Freelance
CDI

Offre d'emploi
Data Scientist - IA Generative

VISIAN
Publiée le
Dash
Deep Learning
IA Générative

1 an
40k-58k €
380-570 €
Paris, France

Le consultant interviendra en tant que Data Scientist pour accompagner les travaux de consolidation et d'industrialisation de nouveaux services pour les directions métier. Le terrain de jeux sera les technologies IA Gen, les RAG et les chaines d'ingestions de corpus documentaires hétérogènes. Le DS sera en responsabilité de la conception (en collaboration avec les interlocuteurs métiers, Data et DSI) et le développement de solutions répondant aux besoins métier. Il réalisera les études de faisabilité, de risque et de performance nécessaire pour la maturation du Use Case à travers le cycle de vie (incubation, industrialisation, run). Livrables : Pipeline d'acquisition, préparation et traitement de données (structurées et non structurées) Pipeline d'entrainement, test et validation, Composants d'inférence Automatisation de pipeline et workflow Mécanismes et process de monitoring de la performance API Prototypes et démonstrateurs Plan d'experiences et de tests Documentation technique et fonctionnelle Rapport de veille technologique et technique

CDI
Freelance

Offre d'emploi
Business Analyst Data & Géodonnées H/F

INFOTEL CONSEIL
Publiée le
API
Data analysis

1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine

La mission s’inscrit dans le cadre de la construction d’un GeoDataHub , une plateforme visant à collecter, centraliser et diffuser des données géographiques externes (open data ou données payantes). L’objectif est de rendre ces données accessibles aux différentes équipes métiers (climat, BtoB, digital, data, etc.) afin de : Modéliser les risques climatiques Optimiser les leviers de tarification et de souscription Développer des dispositifs de prévention et d’alerte Appuyer la gestion de crise en cas d’événements climatiques majeurs Objectifs du GeoDataHub Le projet vise à construire et enrichir plusieurs référentiels géographiques : Connaissance du territoire Climat / météo Caractérisation des bâtiments d’une adresse donnée (MVP prévu pour T4 2025) Caractérisation de l’aléa climatique (scores géoclimatiques – planifié pour 2026) Missions principales S’approprier les parcours métiers et décrire les parcours utilisateurs en lien avec les équipes métier et design. Assurer le lien entre les acteurs métier et techniques (développeurs, testeurs, data engineers). Analyser les anomalies et identifier les causes (outils, parcours, données). Évaluer l’impact métier des solutions livrées (durée de traitement, performance, usage). Concevoir des solutions fonctionnelles cohérentes et alignées sur les besoins exprimés. Rédiger les expressions de besoin et challenger les demandes métiers. Rédiger et découper les User Stories (HU), définir les critères d’acceptation et les spécifications fonctionnelles détaillées (SFD IHM / SFD API). Contribuer à la priorisation du backlog et signaler les alertes ou points de blocage. Livrables attendus Expression de besoin (sous forme d’User Stories) Spécifications fonctionnelles (API, ingestion de données, solutions) Études d’impacts Spécifications de tests & PV de validation Compte-rendus d’activités hebdomadaires Documentation technique en Markdown Compétences techniques et fonctionnelles Rédaction de spécifications d’API et de flux d’ingestion de données Analyse d’anomalies et recettes fonctionnelles Maîtrise des outils : GDR, GAP, VSI Automatisation de tests API Support aux développeurs Bonne compréhension des processus de tarification/souscription (produits IARD ou habitation) Intérêt pour la donnée géographique et climatique Environnement et collaboration Mission réalisée en interaction avec : Les équipes métiers (tarification, souscription, prévention), Les équipes techniques (développement, data, API), Des experts climat et data (modélisation, visualisation).

Freelance

Mission freelance
Ingénieur Études et Développement (IED) – Equity

TL Consulting
Publiée le
C#
Finance

36 mois
400-500 €
Île-de-France, France

Intitulé du poste Ingénieur Études et Développement – Domaines Actions (Equity) Missions principales - Concevoir, développer et maintenir les applications front-to-back liées aux produits actions. - Collaborer avec les équipes de trading et de risque. - Assurer la maintenance corrective et évolutive. - Participer à l’optimisation des performances applicatives. Environnement technique / outils C#, Java, Python, .NET, Spring Boot, SQL Server, Oracle, Git, Jenkins, GitLab. Compétences clés - Connaissances produits financiers Equity (Cash, Derivatives). - Bonne compréhension des flux Front-to-Back. - Travail dans un environnement de trading floor. - Communication et rigueur. Profil recherché Diplôme d’ingénieur (Bac+5). 2 à 5 ans d’expérience en développement applicatif dans le domaine Equity.

Freelance

Mission freelance
SENIOR DATA ENGINEER SNOWFLAKE - DBT (Azure)

CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
DBT

3 mois
400-650 €
Île-de-France, France

Notre client renforce son équipe Data dans le cadre de l’évolution de sa Data Platform. Au sein d’un environnement moderne et exigeant, vous participerez à des projets stratégiques de modélisation, d’analyse et de valorisation des données. En tant que Senior Analytics Engineer , vous serez intégré à la Data Platform et interviendrez sur l’ensemble de la chaîne de traitement de la donnée. Vos responsabilités incluront : 📊 Modélisation & Transformation de la donnée : Conception des hubs, satellites et links selon l’approche Data Vault 2.0 Développement de modèles dans dbt Cloud (SQL, Python) Création de macros/tests pour la qualité des données Gestion des projets dbt : versioning, documentation, administration des accès 🧩 Architecture & Data Engineering : Étude des architectures existantes et proposition d’optimisations Création et gestion des objets Snowflake (tables, vues, rôles, sécurité) Optimisation des performances des bases de données 📈 Data Visualisation : Création, évolution et maintenance des modèles sémantiques dans Power BI Développement de rapports avancés et intégration des mesures DAX Mise en œuvre du Row-Level Security Adaptation des métadonnées pour les filiales internationales 🔄 CI/CD & Qualité : Participation aux processus CI/CD via Azure DevOps Suivi des performances, contrôle qualité et automatisation des pipelines

Freelance

Mission freelance
Data Scientist Python

EXteam
Publiée le
Ansible
GitLab CI
Hadoop

3 ans
600 €
Île-de-France, France

(Expérience du domaine de l'énergie obligatoire) Profil capable de s’adapter à l’environnement technique du département SCC et aux pratiques de l’équipe qu’il va rejoindre • Capacité de travailler de manière autonome • Disposant d’un bon sens de l’organisation et de la rigueur • Capacité de synthétiser ses travaux pour communiquer efficacement à ses commanditaires Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données • Conception et développement de traitements de données • Réalisation d’études statistiques • Présentation de résultats sous la forme de rapports d’étude ou de tableaux de bord • Développement d’outils de visualisation de données pour faciliter les analyses • Documentation des traitements en vue d’une industrialisation Mise en production des traitements de données • Suivi de l'industrialisation, maintien des traitements en production • Participation aux cérémonies agiles de l’équipe • Diffusion et vulgarisation des résultats d’étude L’environnement technique du projet est le suivant : • Python • R • PostgreSQL • Teradata • Hadoop • Gitlab CI • Ansible • Jira / Confluence / Bitbucket • Git Compétences attendues sur le profil : o Maîtrise de Python et de ses librairies pour le traitement et l'analyse de données (pandas, scikit-learn, TensorFlow/PyTorch) o Maitrise des notions d’électricité (puissance/énergie) et notions sur le réseau électrique o Bonne connaissance des bases de données SQL, notamment PostgreSQL et Teradata. o Maîtrise des outils de versioning et d'intégration continue, notamment Git et Gitlab CI/CD. o Familiarité avec Spark (PySpark ou Scala) pour le traitement de grandes volumétries de données o Proactif et autonome, avec une capacité à prendre des initiatives et à résoudre des problèmes. o Capacités à communiquer efficacement et avec pédagogie o Bonnes compétences rédactionnelles o Connaissance dans la rédaction de documents de cadrage du projet o Connaissance approfondie des métiers autour des chaînes communicantes o Expérience dans le recueil de besoins et l’animation d’ateliers métiers o Capacité de synthèse et de restitution d’informations o Capacité à animer des groupes de travail autour des organisations et des processus métiers. o Expérience avérée dans un environnement Agile à l’échelle o Est bon communicant

Freelance

Mission freelance
Ingénieur Automatisation & Data IA

KEONI CONSULTING
Publiée le
autonomie

18 mois
100-400 €
Paris, France

CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Cloud, Intégration de données, IA generative, API Monitoring Compétences Technologies et Outils Synapse REST Azure SQL Soft skills Autonomie Rigueur Pour l'un de nos clients dans le secteur du transport, nous sommes actuellement à la recherche d'un Ingénieur automatisation & Data IA. Vous serez en charge de mettre en place et orchestrer des flux d’automatisation et d’analyse de données en s’appuyant sur l’IA générative (OpenAI), un data warehouse cloud (Azure Synapse) et des outils d’automatisation de workflows (n8n). L’objectif est d’optimiser les processus internes, d’améliorer la productivité des équipes et de fiabiliser l’exploitation des données. MISSIONS Vos missions seront les suivantes : Conception et déploiement de solutions d’automatisation : créer, monitorer et maintenir des workflows complexes via n8n, en intégrant des sources multiples (API, bases de données, outils internes). Exploitation de l’IA générative : intégrer les services OpenAI (chat, embeddings, fine-tuning) dans les flux opérationnels et les cas d’usage internes. Gestion de la donnée : mettre en place et optimiser des pipelines d’ingestion et d’analyse dans Azure Synapse, incluant l’intégration de données multi-sources et temps réel. Optimisation et gouvernance : veiller à la performance des requêtes SQL, à la sécurité (RBAC, data masking) et à la maîtrise des coûts liés aux API et aux environnements cloud. Support et amélioration continue : assurer le monitoring, le debug et l’évolution des flux d’automatisation pour répondre aux besoins métiers. Expertise souhaitée Compétences techniques : IA / OpenAI Maîtrise de l’API OpenAI (chat, embeddings, fine-tuning). Connaissances en prompt engineering et intégration IA dans des workflows. Sensibilité aux enjeux de sécurité, de gouvernance et de gestion des coûts liés aux appels API. Data Engineering / Azure Synapse Excellente pratique du SQL avancé (optimisation, transformation, agrégation). Intégration et traitement de données multi-sources et en temps réel. Compétences de base en gouvernance et sécurité (RBAC, data masking). Workflow Automation / n8n Conception, déploiement et maintenance de workflows automatisés complexes. Connexion à divers systèmes via API REST, bases de données, services internes/externes. Mise en production, suivi, debug et optimisation continue des flux automatisés.

CDI

Offre d'emploi
Ingénieur études et développement confirmé F/H

COEXYA
Publiée le

40k-45k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes

CONTEXTE L'entité Search & Valorisation de données recherche un développeur expérimenté pour concevoir, développer et maintenir des plateformes d'analyse de données avancées, intégrant des chaînes complètes de collecte, traitement, enrichissement, et analyse des données, incluant des services de traitement du langage naturel (NLP). Vous interviendrez dans un environnement mêlant technologies back-end robustes (Java) et scripts ou services analytiques (Python), en lien direct avec les équipes data. CE QUE L'ON VOUS PROPOSE Vous ferez partie d'une équipe de 3 à 5 passionnés et contribuerez au développement de solutions de moteur de recherche pour nos clients. Vous aurez l'opportunité de : - Concevoir et développer des chaînes de traitement de données de bout en bout : ingestion, nettoyage, normalisation, enrichissement. - Implémenter des services de NLP : extraction d'entités, classification, résumé, etc. - Participer à la conception et à l'évolution de plateformes d'analyse : APIs, dashboards, outils d'exploration des données. - Optimiser les traitements existants pour améliorer la scalabilité, la fiabilité et les performances. - Collaborer étroitement avec les équipes de développement, les business analyst et les responsables métiers. - Industrialiser et documenter les développements, assurer la qualité via des tests automatisés.

Freelance
CDI

Offre d'emploi
Développeur Big Data Scientist (F/H)

CELAD
Publiée le
PySpark
Python
Scala

1 an
50k-55k €
470-490 €
Lyon, Auvergne-Rhône-Alpes

A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ DEMARRAGE : Janvier 2026 -📑 CDI (50-55K€) OU Freelance OU Portage salarial - 🏠 Télétravail - 50% / début de semaine - 📍 Lyon - 🛠 Expérience de 8 ans minimum Envie de rejoindre une équipe Data où l’innovation, la performance et la qualité technique sont au cœur des projets ? 🚀 Nous recherchons un.e Développeur Big Data pour intervenir sur des projets d’envergure autour du traitement et de la valorisation de données massives. Vous participerez à la conception et au développement de solutions data destinées à accompagner les métiers dans leur transformation numérique 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Participer aux ateliers métiers pour comprendre les besoins et les jeux de données - Concevoir, développer et maintenir des traitements de données complexes - Réaliser des études statistiques et présenter les résultats sous forme de rapports ou de tableaux de bord - Développer des outils de visualisation facilitant l’analyse et la prise de décision - Documenter et industrialiser les traitements développés - Mettre en production les pipelines data et assurer leur suivi - Participer aux rituels agiles et aux échanges techniques de l’équipe

CDI
Freelance

Offre d'emploi
Responsable projets Data BI - CDI - Belgique - Bruxelles

PROPULSE IT
Publiée le
BI

24 mois
70k-77k €
385-770 €
Bruxelles, Bruxelles-Capitale, Belgique

Responsable Projet Data (H/F) - poste en CDI direct Liaisons fonctionnelles : À l'intérieur de l'entreprise : Le Directeur général et l'ensemble des salariés A l'extérieur : • Les squads Data, les squads en charge des données de référentiel, le service Etudes et Mesures • Les Direction Systèmes d'informations, les responsables des pays (Espagne / Pologne /Portugal / France / Slovénie / Luxembourg) • Prestataires : les intégrateurs, Ingénieur Data, Directeur de projet externe • Industriels (clients) Description générale du poste : Le Responsable projet Data (H/F) joue un rôle central dans la gestion des données, qui portent sur l'intégralité de la fiabilité des prestations vendues aux industriels. À ce titre, il doit définir et mettre en œuvre la stratégie globale de gestion des données disponibles, maintenir l'existant et identifier les opportunités, tout en s'inscrivant dans les modalités définies par le Mouvement. C'est un poste clé qui comporte les dimensions suivantes : - Techniques : manipulation de la donnée, utilisation approfondie des outils mis à disposition, - Stratégiques : enjeux, opportunité, sécurité, - Relationnelles : avec les pays, la DSI, une multitude d'acteurs variés - Une forte sensibilité sur la dimension gestion des systèmes d'informations est attendue Les missions principales : • assurer la qualité et la fiabilité des données en coordonnant avec des acteurs internes - externes • contrôler et mettre à jour les données référentiels spécifiques à notre client • construire, maintenir et faire évoluer les rapports mis à disposition • contrôler et valider la sécurité de l'accès aux données (rapports et données) • piloter la mise en qualité de l'ensemble des données, avec les pays • Participer au développement des services

CDI

Offre d'emploi
Data Scientist - secteur médical H/F

VIVERIS
Publiée le

40k-50k €
Grenoble, Auvergne-Rhône-Alpes

Contexte de la mission : Dans un contexte d'innovation biomédicale, la mission s'intègre au sein d'un service « Data Science - Molecular & Data-IT » spécialisé dans l'exploitation de données scientifiques et la mise en oeuvre de modèles complexes au service de la recherche et du développement. Basée à Grenoble, cette mission vise à renforcer les travaux autour de dynaMo, un outil de simulation destiné à optimiser l'étude des interactions biologiques et à améliorer la prédiction des résultats expérimentaux. Responsabilités : - Contribuer à l'amélioration de l'outil dynaMo en évaluant divers outils de simulation des interactions entre primers. - Générer des simulations mimant des jeux de données réels, en collaboration étroite avec les biologistes et les data scientists impliqués dans le projet. - Comparer les résultats obtenus avec les données réelles afin d'identifier les écarts et proposer des pistes d'amélioration. - Synthétiser les résultats, proposer et mettre en oeuvre des optimisations permettant de reproduire plus fidèlement les réactions biologiques.

278 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous