L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 855 résultats.
Offre d'emploi
Data scientist Senior
VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python
1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Offre d'emploi
Développeur Data industrelle/MES H/F
VIVERIS
Publiée le
45k-55k €
France
Contexte de la mission : Dans le cadre de la transformation digitale de ses activités industrielles, notre client, acteur majeur du secteur pharmaceutique, renforce ses équipes en charge des systèmes de gestion de production (MES) et de la valorisation des données industrielles. La mission s'inscrit au sein d'un environnement de production exigeant, avec des enjeux forts autour de la traçabilité, de la performance industrielle et de l'exploitation de données en temps réel. Le consultant interviendra en lien avec les équipes IT, les équipes métiers (production, qualité) ainsi que les systèmes industriels.L'environnement technique repose notamment sur un historian industriel (AspenTech IP.21) permettant de collecter, historiser et exploiter les données issues des équipements de production. Des développements spécifiques sont nécessaires afin de répondre aux besoins métiers en matière de reporting, d'analyse et d'intégration avec les systèmes existants. Responsabilités : Intervenir sur des activités de développement et de gestion des données industrielles, avec un rôle clé dans leur exploitation et leur valorisation Etre en charge de la conception et du développement de requêtes et scripts permettant d'extraire, transformer et structurer les données issues du système IP.21 Contribuer à l'optimisation des performances des traitements et à la fiabilisation des flux de données Participer à la compréhension des besoins fonctionnels et à leur traduction en solutions techniques adaptées Intervenir sur des sujets d'intégration avec d'autres systèmes (MES etc.).
Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)
EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark
1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Offre d'emploi
Data Architect Senior / Data Analytics Lead - Supply Chain
Clostera
Publiée le
BigQuery
Data analysis
Looker Studio
1 an
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data architect Senior / data Analytics Lead F/H pour renforcer les équipes data d’un grand groupe retail, et accompagner la transformation analytique de ses activités. Ce que vous ferez : Au sein de l’équipe dédiée à la Data Supply Chain , vous interviendrez comme référent data senior pour accompagner les équipes métiers Supply Chain dans l’exploitation de la donnée afin d’optimiser la performance opérationnelle. Vous serez le pivot entre les équipes métier et les équipes data (data scientists, data engineers, data viz, data governance). Vos missions principales : Analyse et exploitation de la donnée Structurer et conduire des analyses data complexes de bout en bout Extraire, traiter et analyser des volumes importants de données Identifier des insights permettant d’améliorer les processus Supply Chain Construction d’outils d’aide à la décision Définir et suivre des KPI métiers Concevoir des reportings et dashboards interactifs Formaliser les résultats et recommandations business Interface métier / équipes data Interagir étroitement avec les équipes Supply Chain Traduire les besoins métiers en problématiques analytiques Collaborer avec les équipes Data Science, Data Engineering et Data Viz Communication et restitution Présenter les analyses et résultats aux équipes métiers Intervenir dans des restitutions auprès du top management Supply Chain Challenger les demandes analytiques et proposer des améliorations
Offre d'emploi
Data Lead H/F
OBJECTWARE
Publiée le
Master Data Management (MDM)
Tours, Centre-Val de Loire
Nous recherchons un Lead Data H/F à Tours pour intervenir sur le déploiement d'un référentiel de données unifié et fiable. Missions : Analyse de l’existant : Cartographier les processus, évaluer les données, analyser et recueillir les besoins. Définition de la cible : Concevoir la solution (modèle, flux, architecture) et en mesurer les impacts. Feuille de route : Structurer les étapes, estimer les ressources et anticiper les risques. Restitution : Animer les ateliers et valider les recommandations.
Offre d'emploi
IA Engineer (Python / Agents / Observabilité)
Ewolve
Publiée le
Agent IA
Data science
LangChain
3 ans
40k-45k €
400-700 €
Île-de-France, France
Dans le cadre d’un programme stratégique pour un grand compte du secteur bancaire , vous intégrerez une équipe en charge d’une plateforme de Log as a Service , en pleine évolution vers de l’ observabilité intelligente . L’objectif est d’exploiter les données de logs à grande échelle afin d’améliorer la gestion des incidents , la détection d’anomalies et la performance des systèmes IT grâce à l’intelligence artificielle. Vos missions : Développer des agents intelligents pour l’analyse automatisée des logs Concevoir et implémenter des use cases IA appliqués à la production IT Participer à la mise en place de solutions de détection d’anomalies Exploiter les données issues de la plateforme d’observabilité Contribuer au développement backend en Python Collaborer avec les équipes techniques pour intégrer les solutions en production Participer à des travaux exploratoires sur des sujets innovants autour de l’IA
Mission freelance
Data Analyst
Insitoo Freelances
Publiée le
Data analysis
2 ans
400-685 €
Bruxelles, Bruxelles-Capitale, Belgique
Located in Lille, Lyon, Nantes, Grenoble, and Brussels, Insitoo Freelances is an entity of Insitoo Group, specialized in Freelances sourcing and supplying.Since 2007, Insitoo Freelances has been a reference in IT thanks to its expertise, transparency, and proximity . We are looking for a Data analyst for our client in Brussels. Key responsibilities : Delivering reports and dashboards that enable management and all teams to continuously monitor performance through interactive dashboards and detect issues at an early stage In addition to internal reports (in OBI and MicroStrategy), delivering a set of external reports (via Arvastat) Providing data to the Strategy department Ensuring the AI team receives the necessary information that allows them to extract insights from the data using statistical techniques
Offre d'emploi
Data Ops Engineer AWS / Databricks H/F
DAVRICOURT
Publiée le
Databricks
45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Ops Engineer AWS / Databricks pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Assurer la robustesse, la performance et la sécurité d'une plateforme data (data lake AWS) ; - Mettre en place et maintenir l'infrastructure via Terraform (Infrastructure as Code) ; - Superviser les environnements data (monitoring, performance, optimisation) ; - Accompagner les équipes sur l'usage des outils data (S3, Glue, Databricks) ; - Contribuer à la gouvernance des données (catalogue, accès, qualité des données) ; - Participer à l'amélioration continue et à l'industrialisation des pratiques Data Ops.
Offre d'emploi
Data Analyst Senior ( F/H) Nantes
Argain Consulting Innovation
Publiée le
Microstrategy
PowerBI
SQL
1 an
40k-45k €
500-550 €
Nantes, Pays de la Loire
🎯 Contexte Dans le cadre du renforcement des équipes Data d’un grand acteur du secteur bancaire, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des problématiques de pilotage de la performance, marketing et parcours digitaux. 🚀 Mission Vous interviendrez en étroite collaboration avec les équipes métiers afin de : Recueillir et analyser les besoins métiers, les traduire en indicateurs de performance (KPI) Exploiter les données issues des systèmes décisionnels et marketing Produire et automatiser des reportings et tableaux de bord Concevoir des restitutions visuelles claires et orientées décision Accompagner les équipes dans l’interprétation des analyses Mettre à disposition et maintenir des KPI fiables et pertinents Participer à l’amélioration continue des pratiques Data 📈 Responsabilités clés Analyse et valorisation des données Définition et suivi des indicateurs business Contribution à la stratégie de pilotage et à la prise de décision 🛠️ Compétences techniques Outils de Data Visualisation : MicroStrategy (idéalement) ou Power BI / Tableau SQL avancé (expert) Manipulation de bases de données volumineuses (type Teradata ou équivalent) Bonne compréhension des environnements data et décisionnels 🤝 Compétences fonctionnelles & soft skills Très bonne communication et pédagogie Capacité à challenger les besoins métiers Esprit d’analyse et de synthèse Autonomie et rigueur Adaptabilité et sens de l’organisation ➕ Atouts Expérience dans le secteur bancaire ou financier Connaissance des problématiques marketing et digitales Connaissance d’outils de tracking (type Tag Management / Web Analytics) Mission longue durée, Nantes 3 jours de présence sur site par semaine obligatoire
Offre d'emploi
Data Scientist - (H/F)
DAVRICOURT
Publiée le
40k-45k €
Bolbec, Normandie
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans le département Seine-Maritime. À ce titre, vos missions quotidiennes seront les suivantes : - Développer en Python des algorithmes et scripts modulaires intégrables sur GCP, basés sur les modèles statistiques métiers ; - Automatiser les tâches répétitives et proposer des solutions simples, robustes et à forte valeur ajoutée ; - Mettre en place des scripts de collecte, structuration et ingestion des données issues des équipements industriels vers GCP ; - Assurer le rôle de relais technique entre les équipes métiers, l'IT et la Data Factory, tout en développant des outils de visualisation et en contribuant à l'acculturation Data des équipes locales.
Mission freelance
DevOps / Intégrateur - Niort
Signe +
Publiée le
Groovy
Jenkins
Scripting
6 mois
350 €
Niort, Nouvelle-Aquitaine
Missions principales 1. Développement & Intégration Développer et maintenir des plugins XL Deploy et XL Release. Concevoir, mettre à jour et optimiser des templates XL Release (bonnes pratiques, industrialisation). Développer et maintenir des Jenkinsfiles pour des pipelines CI/CD complexes. Automatiser les actions répétitives autour des déploiements et releases. 2. Administration & Navigation des outils Naviguer efficacement dans Jira, gérer les workflows, et : Créer / modifier des écrans, Automatiser via ScriptRunner (scripts Groovy). Contribuer au maintien opérationnel de l’usine de déploiement : Nettoyage des déploiements en failed le matin, Nettoyage et rationalisation des templates, Mise à jour de la documentation. 3. Amélioration continue Proposer des améliorations techniques sur la plateforme CI/CD. Participer à l’optimisation des processus DevOps. Assurer une veille sur les outils, les frameworks et les bonnes pratiques. Compétences techniques requises Outils & plateformes XL Deploy / XL Release (obligatoire) : Développement de plugins, Manipulation des templates, Compréhension des pipelines et déploiements. Jenkins : Écriture de Jenkinsfiles (Pipeline as Code), Bonne compréhension des concepts CI/CD. Jira : Configuration avancée, scripting via ScriptRunner (Groovy), Modification d’écrans / workflows. Langages de scripting Groovy (ScriptRunner, Jenkinsfiles) Shell / PowerShell (selon stack interne) Compétences souhaitées (plus) SQL (création de requêtes simples : select, joins basiques…) Java (lecture et compréhension d’un code plugin, corrections simples) Soft skills & Qualités Rigueur : respecte les standards, fiabilise les processus. Pragmatisme : propose des solutions simples, robustes et adaptées. Curiosité : explore les outils, propose des innovations. Autonomie : capable de gérer un périmètre fonctionnel en autonomie. Sens du service : sait travailler avec les équipes Système, Dev, Exploit Prod. Profil idéal Expérience préalable en intégration continue, DevOps ou automatisation. Connaissances des environnements multi-projets / multi-équipes. Capacité à industrialiser et maintenir une plateforme CI/CD à grande échelle.
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Mission freelance
Data Analyst Aix-en-Provence
CAT-AMANIA
Publiée le
Analyse
Data science
Data visualisation
2 ans
360-460 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement d’une équipe spécialisée dans l’analyse de la donnée, nous recherchons un Data Analyst expérimenté pour intervenir sur des problématiques d’exploitation et de valorisation des données. Au sein d’une équipe dédiée à l’analyse et à la fiabilisation des données, vous contribuerez à la mise en place d’analyses avancées et de cas d’usage métiers reposant sur l’exploitation de données multiples . Votre rôle consistera notamment à : Analyser et exploiter des jeux de données issus de différents domaines du système d’information Étudier la cohérence et l’impact des données dans les processus métiers Mettre en œuvre des analyses croisées permettant d’identifier des comportements atypiques ou des signaux faibles Développer des modèles analytiques ou prédictifs permettant d’améliorer la détection d’anomalies Concevoir et maintenir des produits data réutilisables (scripts, modèles, dashboards) Contribuer à la visualisation et à la restitution des analyses auprès des équipes métiers Respecter les normes et bonnes pratiques de développement et d’exploitation des données au sein de l’équipe. Vous interviendrez dans un environnement dynamique où la qualité, la structuration et la valorisation de la donnée sont au cœur des enjeux métier.
Mission freelance
PO DATA - Expérience data clinique / santé impératif
Net technologie
Publiée le
Data governance
Data quality
1 an
France
Nous recherchons un consultant PO expérimenté sur des données cliniques en environnement international (fluent english). Vos missions : Intervenir sur des initiatives liées aux données opérationnelles cliniques en faisant le lien entre les équipes métiers, cliniques et data engineering. ❇️ Recueillir et formaliser les besoins métiers autour des données cliniques ❇️ Traduire les exigences fonctionnelles en spécifications data exploitables ❇️ Contribuer à la qualité, gouvernance et traçabilité des données ❇️ Animer des ateliers et coordonner les parties prenantes ❇️ Travailler en environnement Agile (Jira, Confluence)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2855 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois