Find your next tech and IT Job or contract Data Scientist

The "Data Scientist" is the Big Data specialist in companies, responsible for structuring information and optimizing the security of stored data, regardless of their volume. Their mission: carefully categorize data to avoid risks of IT system failure. They thus seek to detect new vulnerabilities potentially exploitable by hackers and their impact on company activities. Ultimately, they ensure to propose effective protection solutions. This expert in massive data management and analysis is simultaneously a specialist in numbers, statistics, and computer programs: they extract value from data to support the company in making strategic or operational decisions. The "Data Scientist" collaborates transversally with various profiles: computer scientists, statisticians, data analysts, data miners, marketing and web marketing experts...

Your search returns 75 results.
Contractor

Contractor job
Scrum Master – Data/IA - (conformité)

VISIAN
Published on
Kanban
Scrum

1 year
400-550 €
Ile-de-France, France

🎯 Contexte & Objectifs Le pôle Data & IA recherche un Scrum Master bilingue et expérimenté pour accompagner une équipe internationale de 15 Data Scientists dans le cadre de projets de développement et de missions d’inspection. 🔑 Missions principales Faciliter et animer le fonctionnement de l’équipe (rituels agiles, backlog, rétrospectives). Garantir le respect des méthodes agiles (Scrum, Kanban, Scrumban). Suivre la vélocité, burndowns, obstacles et actions. Proposer et mettre en place des méthodes et outils favorisant efficacité, créativité et initiatives. Animer une équipe multi-nationale (anglais requis). Générer les KPI de suivi et rapports pour le PO et le management.

Permanent
Contractor

Job Vacancy
Tech Lead IA

KLETA
Published on
Large Language Model (LLM)
RAG

12 months
Paris, France

En tant que Tech Lead IA , vous serez responsable de : Concevoir et piloter l’architecture technique (Cloud AWS) d’une plateforme IA permettant d’extraire, structurer et valoriser l’information issue des contrats. Définir et encadrer les choix technologiques (NLP, LLM, moteurs de recherche intelligents, pipelines de données, etc.). Garantir la robustesse, la scalabilité et la sécurité des solutions mises en place. Encadrer une équipe de data scientists, data engineers et développeurs backend/frontend. Travailler en lien étroit avec les métiers pour transformer les besoins opérationnels en solutions concrètes.

Contractor
Permanent

Job Vacancy
Chef de projet technique SI / IA

ABSIS CONSEIL
Published on
API
AWS Cloud
Control

4 years
48k-52k €
450-500 €
La Défense, Ile-de-France

Nous recherchons pour notre client un Chef de projet Technique SI pour piloter un programme ayant pour objectif le développement et l'industrialisation d'un algorithme d'intelligence artificielle. Cet algorithme permettra à notre client d'optimiser le pilotage de son activité. Vous serez garant de l'intégration de la solution dans le SI et sur une plateforme AWS. Vos missions : Pilotage de projet de bout en bout. Animation des équipes techniques (data scientist, développeurs) en Agile Coordonner les métiers, partenaires. Suivi du planning, budget et des risques. Piloter le déploiement de la solution sur le SI et le cloud Participer à la définition des architectures data & logicielles Superviser les phases de tests techniques Vous serez l'interface technique entre toutes les parties prenantes. Vous aurez à votre charge toute la communication et le reporting de votre projet. Pré-requis Bac + 5 école d'ingénieur ou équivalent vous avez entre 5 et 8 ans d'expérience en gestion de projets SI complexes Vous avez des expériences avérée sur des projets d'intégration dans des environnements Cloud AWS , et idéalement dans le domaine de l'IA vous connaissez les méthodologies Agile (Scrum, Safe) Vous avez des compétences en architecture logicielle (API, microservices) Maitrise des outils : Jira, Confluence et Powerpoint

Contractor

Contractor job
DEVELOPPEUR RUBY - CONFIRME

Groupe Aptenia
Published on
Linux
PostgreSQL
Ruby

3 months
Boulogne-Billancourt, Ile-de-France

Contexte de la mission Au sein de l’équipe technique, vous travaillerez dans un environnement de développement logiciel agile, en collaboration avec des développeurs, des data scientists, des product owners et scrum masters expérimentés Objectifs et livrables Vous évoluerez dans un environnement utilisant les dernières technologies en termes de développement, Big Data et Infra : Rails 7, Vue.js, Python, Kubernetes, Terraform, Google Cloud Platform, Dataiku, PostgreSQL et vos missions consisteront à : Développer les nouvelles fonctionnalités des différents produits Maintenir et améliorer l’architecture logicielle durant les cycles de développements avec prise en compte des contraintes systèmes et business Garantir la performance, la sécurité et la mise à jour des applications Définir et maintenir la supervision des applications (monitoring, metrics, alerting…) Issu(e) d’une école d’ingénieur avec au moins +5 années d’expériences en développement en ruby, vous vous définissez comme un développeur ouvert, avec des connaissances pointues en développement ruby mais aussi en modélisation de base de données PostgreSQL. Vous justifiez également d'une forte appétence aux principes DevOps. Bon niveau d’anglais (écrit & parlé), communication, documentation et rituels de l'équipe se font en anglais Autonomie, rigueur, curiosité, relationnel L’environnement de travail: Backend : Ruby (Rails), NodeJS Frontend : HTML, CSS, JS Base de données : PostgreSQL, Redis Intégration continue (Circle CI, GitHub) Architectures microservices et Containerisation (Docker, Kubernetes) Plateformes Cloud : Google Cloud Platform Méthodologie Agile (Scrum/Kanban, Jira/Confluence) Outils de monitoring & alerting (Stackdriver, Jaeger) Tests automatiques (unitaires, intégration, fonctionnels) Documentation

Contractor
Permanent

Job Vacancy
SENIOR Business Analyst IA générative et de la RAG - IDF - Plus de 9 ans

Digistrat consulting
Published on
Agile Method
BI

3 years
50k-65k €
500-550 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein du Lab Innovation, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). 🤝 Les missions sont : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client.

Permanent
Contractor

Job Vacancy
Expert migration SAS vers Dataiku

ANAFI CONSULTING
Published on
Agile Method
Dataiku
SAS

2 years
40k-65k €
400-550 €
Tours, Centre-Val de Loire

Notre client souhaite migrer ses solutions analytiques et ses processus de traitement de données de l’environnement SAS vers la plateforme Dataiku . Dans ce cadre, vous interviendrez en tant qu’expert pour accompagner cette transformation, en garantissant la continuité des processus métiers et l’optimisation des performances. Missions principales : Analyser les processus existants sous SAS (scripts, macros, workflows) et identifier les dépendances. Concevoir des solutions équivalentes ou optimisées sur Dataiku, en collaboration avec les équipes métiers et techniques. Développer et tester les nouveaux workflows Dataiku, en assurant la compatibilité avec les systèmes existants. Former les équipes internes à l’utilisation de Dataiku et documenter les bonnes pratiques. Accompagner le déploiement progressif des solutions et assurer le support post-migration. Optimiser les performances des nouveaux processus et proposer des améliorations continues. Compétences techniques : Expertise confirmée en développement SAS (Base SAS, SAS Macro, SAS SQL, SAS DI Studio, etc.). Maîtrise avancée de Dataiku (création de workflows, utilisation des recettes, intégration avec d’autres outils, etc.). Connaissance des bonnes pratiques en migration de données et en gestion de projets data. Expérience avec les bases de données (SQL, Oracle, PostgreSQL, etc.) et les environnements Big Data . Familiarité avec les outils de versioning (Git) et les méthodologies Agile/DevOps . Compétences transverses : Capacité à travailler en équipe pluridisciplinaire (métiers, IT, data scientists). Pédagogie pour former et accompagner les utilisateurs finaux. Autonomie , rigueur et sens de l’organisation pour gérer des projets complexes. Excellente communication écrite et orale pour documenter et présenter les avancées.

Contractor

Contractor job
DEVELOPPEUR RUBY - CONFIRME

Codezys
Published on
Kubernetes
Linux
PostgreSQL

6 months
Boulogne-Billancourt, Ile-de-France

Contexte de la mission Au sein de l’équipe technique, vous travaillerez dans un environnement de développement logiciel agile, en collaboration avec des développeurs, des data scientists, des product owners et scrum masters expérimentés Objectifs et livrables Vous évoluerez dans un environnement utilisant les dernières technologies en termes de développement, Big Data et Infra : Rails 7, Vue.js, Python, Kubernetes, Terraform, Google Cloud Platform, Dataiku, PostgreSQL et vos missions consisteront à : Développer les nouvelles fonctionnalités des différents produits Maintenir et améliorer l’architecture logicielle durant les cycles de développements avec prise en compte des contraintes systèmes et business Garantir la performance, la sécurité et la mise à jour des applications Définir et maintenir la supervision des applications (monitoring, metrics, alerting…) Issu(e) d’une école d’ingénieur avec au moins +5 années d’expériences en développement en ruby, vous vous définissez comme un développeur ouvert, avec des connaissances pointues en développement ruby mais aussi en modélisation de base de données PostgreSQL. Vous justifiez également d'une forte appétence aux principes DevOps. Bon niveau d’anglais (écrit & parlé), communication, documentation et rituels de l'équipe se font en anglais Autonomie, rigueur, curiosité, relationnel L’environnement de travail: Backend : Ruby (Rails), NodeJS Frontend : HTML, CSS, JS Base de données : PostgreSQL, Redis Intégration continue (Circle CI, GitHub) Architectures microservices et Containerisation (Docker, Kubernetes) Plateformes Cloud : Google Cloud Platform Méthodologie Agile (Scrum/Kanban, Jira/Confluence) Outils de monitoring & alerting (Stackdriver, Jaeger) Tests automatiques (unitaires, intégration, fonctionnels) Documentation

Contractor

Contractor job
Data Engineer (F/H)

CELAD
Published on
AWS Cloud
Kubernetes
Python

1 year
450-550 €
Montpellier, Occitania

A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 Freelance OU portage (450-550€/j) – 🏠 3 jours de télétravail par semaine – 📍 Montpellier (34) – 🛠 Expérience de 4/5 ans min. Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous recherchons pour notre client un Data Engineer . 💻💼 🎯 Voici un aperçu détaillé de vos missions : - Participer à la modernisation de la plateforme data en migrant les systèmes existants vers une architecture moderne basée sur les technologies cloud et les bonnes pratiques Data Engineering, - Construire et maintenir des pipelines de données robustes, scalables et automatisés pour alimenter la nouvelle Data Platform (Snowflake, DBT, Python, AWS, Kubernetes), - Travailler en étroite collaboration avec les équipes produit, data science et développement pour garantir la qualité, la cohérence et la disponibilité des données, - Mettre en place les bonnes pratiques de développement et d’exploitation des flux de données, notamment en assurant la qualité, la traçabilité et la sécurité des données, - Contribuer à l’implémentation de briques d’intelligence artificielle, en collaboration avec les data scientists, en garantissant la disponibilité des données nécessaires et la performance des traitements, - Participer à la migration des données depuis les systèmes legacy () vers des environnements modernes, en respectant les contraintes de qualité et de continuité de service, - Assurer une veille technologique sur les outils et pratiques en data engineering, sans pour autant viser un rôle de leadership technique (Tech Lead non souhaité pour ce poste).

Contractor

Contractor job
Lead Data Engineer Streaming

STHREE SAS pour HUXLEY
Published on
Apache Kafka
Apache Spark

12 months
700-850 €
Paris, France

Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack

Contractor

Contractor job
Product Owner IA

Codezys
Published on
API

6 months
410-450 €
Paris, France

Métiers et Fonctions : Pilotage de projet ou de programme Product owner Spécialités technologiques : Intelligence artificielle Base de données API Type de facturation : Assistance Technique (facturation avec un taux journalier) Secteur d'activité : Assurance Description de la prestation : Le rôle principal est de piloter la stratégie, l’adaptation et le déploiement d’actifs d’Intelligence Artificielle (IA) à l’échelle de plusieurs entités, dans le cadre d’un programme de transformation. Le Product Owner coordonne les équipes techniques et métiers pour assurer la faisabilité, l’intégration, l’adoption et l’amélioration continue de solutions IA existantes, sans créer de produit entièrement nouveau. La mission implique également l’industrialisation et la mutualisation des actifs IA. Responsabilités clés : Vision & Stratégie : Définir et porter la vision du produit IA en lien avec le département Innovation et assurer son alignement avec la roadmap du programme de transformation et les priorités stratégiques du Centre d’Excellence IA. Gestion du backlog & livraison : Gérer et prioriser le backlog, travailler avec le Tech Lead et l’Architecte pour évaluer la faisabilité, arbitrer les choix techniques et garantir la cohérence des déploiements. Coordination & engagement : Collaborer avec les équipes métiers, data scientists, ingénieurs et partenaires externes pour recueillir les besoins, assurer l’intégration fluide des actifs IA, lever les blocages et respecter les jalons. Approche utilisateur & adoption : Prendre en compte les besoins des utilisateurs finaux, tout en maîtrisant les contraintes IT et sécurité, et recueillir leurs retours pour améliorer la performance et l’expérience. Performance & pilotage : Définir et suivre les KPIs, mesurer l’impact des fonctionnalités, rédiger la documentation, mettre en place une stratégie de déploiement dans plusieurs entités, définir la feuille de route d’industrialisation à long terme et identifier des opportunités de réutilisation et de scaling des solutions existantes.

Contractor

Contractor job
Chef de Projet Delivery IA / Data – Agence Digitale

SKILLWISE
Published on
Data science
Proof of concept (POC)

3 months
440-600 €
Paris, France

🔹 Contexte : Nous recherchons un Chef de Projet Delivery spécialisé en IA/Data pour accompagner une agence digitale dans le cadrage, le pilotage et la mise en production de projets innovants autour de la data et de l’intelligence artificielle. 🔹 Compétences obligatoires : Ancien Data Scientist (solide compréhension technique) Maîtrise des modèles de données Expérience en POC & prototypes Animation d’ateliers et cadrage fonctionnel Pilotage de delivery (du design à la mise en production) 🔹 Profil recherché : +7 ans d’expérience en Data/IA dont plusieurs en gestion de projet Capacité à traduire les besoins métier en solutions data concrètes Aisance en communication, animation et coordination d’équipes pluridisciplinaires 🔹 Conditions de mission : Lieu : Paris Nord (2 jours de télétravail/semaine) Démarrage : ASAP Durée : longue mission (renouvelable)

Frequently asked questions about working as a Data Scientist

What is the role of a Data Scientist

In the Big Data era, the Data Scientist is somewhat the evolution of the Data Analyst. He/she is a specialist in analyzing and exploiting data within a company. His/her role is to give meaning to this data, in order to extract value from it, to enable the company to make strategic and/or operational decisions. It is one of the high-responsibility positions in a company.

How much does a Data Scientist charge

The average daily rate of a freelance data scientist is around £450/day. It can vary depending on years of experience and the professional's geographical location. The salary of a junior data analyst is £35K. The salary of an experienced data scientist ranges from £50K to £60K.

What is the definition of a Data Scientist

The Data Scientist is an essential element of the company, given that they are responsible for analyzing massive data called Big Data. They manage the collection, storage, analysis and use of millions of data points collected through different channels. This data is used to analyze company performance, and to anticipate consumer behaviors or new trends. It's both an exciting and promising field. It generates new challenges and allows professionals to continuously gain skills. The Data Scientist has solid knowledge in marketing. This professional is highly sought after by companies that constantly seek to improve their performance and remain competitive. After completing their analysis, the Data Scientist will then write a report explaining their conclusions to management or their client.

What type of mission can a Data Scientist handle

The Data Scientist's main mission is to "predict the future". The significant amount of data that companies now generate can be very useful if used properly. The data scientist can then ensure the strategic development of the company, as well as its digital transformation. To achieve this, they must decipher opaque masses of data to give them meaning. Their role is therefore to transform data into actionable information. They can offer their clients IT management solutions to meet specific needs. Creating algorithms will allow them to anticipate future behaviors and needs in order to guide important decisions. It is this form of creativity that distinguishes them from the Data Analyst. Thanks to their expertise, the Data Scientist must be able to present innovative and relevant proposals to their clients, implement and deploy machine learning models, and finally communicate their conclusions to the relevant departments. They can work on short or medium-term projects.

What are the main skills of a Data Scientist

The Data Scientist must master many skills to effectively carry out their duties. We can mention a few: • Being able to efficiently analyze statistical data and model it • Having good knowledge of programming tools and computer language • Mastering data visualization techniques • Having strong affinities for marketing • Having business sense and good communication skills • Being rigorous, organized, with the ability to make proposals • Being able to maintain data confidentiality • Knowing how to work in a team, under pressure and manage stress • Conducting IT monitoring

What is the ideal profile for a Data Scientist

Many schools are beginning to offer degrees in mathematics and applications with specialization in statistics, Big Data engineering, or massive data analysis. There are also other training programs that provide access to the Data Scientist profession, particularly in higher education schools for computer science, statistics, or engineering schools. However, it will still be necessary to demonstrate 4 to 5 years of experience in data analysis or in a datacenter environment.
75 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us