Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 721 résultats.
Freelance

Mission freelance
DevOps (GCP / Terraform / Python / VueJS)

ESENCA
Publiée le
Azure
Google Cloud Platform (GCP)
Python

1 an
Lille, Hauts-de-France
🧭 Contexte & objectif Dans le cadre du développement de plateformes cloud internes, vous participez à la conception et à l’évolution de solutions permettant aux équipes de déployer rapidement leurs environnements sur le cloud public. Ces plateformes, basées sur des principes de self-service , offrent des environnements préconfigurés, sécurisés et automatisés afin d’accélérer le déploiement des applications. 🚀 Missions principales🔧 Développement Concevoir et développer des composants backend (Python) et frontend (VueJS) Développer des solutions d’ Infrastructure as Code (Terraform) sur GCP principalement Participer à l’évolution des plateformes cloud (type Landing Zone) Développer des outils d’ automatisation réseau (firewall, opérations réseau) Implémenter des API et services backend 🏗️ Architecture & conception Proposer des solutions techniques basées sur les services natifs des cloud providers Concevoir des architectures cloud natives, sécurisées et automatisées Participer aux revues de code et d’architecture Contribuer à la définition des standards techniques et bonnes pratiques ✅ Qualité & tests Mettre en place et maintenir des tests automatisés et unitaires Garantir la qualité, la performance et la maintenabilité du code 🛠️ Maintenance & support Corriger les anomalies et bugs Maintenir et améliorer les solutions existantes Accompagner les équipes dans l’utilisation des plateformes 🧠 Compétences techniques🔥 Impératives GCP (niveau expert) Terraform (niveau expert) Python (niveau expert) VueJS / Frontend ➕ Importantes Azure (niveau confirmé) 🌍 Langues Français courant (impératif) Anglais professionnel (souhaité)
Freelance

Mission freelance
Deep Learning Engineer

Groupe Aptenia
Publiée le
Computer vision
Deep Learning
MLOps

6 mois
Paris, France
📍 Localisation : Paris (2j/semaine sur site) 📅 Démarrage : ASAP ⏳ Durée : 6 mois minimum 🔍 Nous recherchons un Deep Learning Engineer expérimenté dans un contexte à forte dimension technologique. 🎯 Vos missions principales ✅ Développer, entraîner et tester des modèles de Deep Learning (Computer Vision) ✅ Travailler sur des données d'imagerie aérospatiale ✅ Contribuer à la mise en production des modèles ✅ Participer à l’amélioration de la stack MLOps (CI/CD, industrialisation) ✅ Collaborer au sein d’une squad agile (5–7 personnes)
Freelance
CDI

Offre d'emploi
Quant Risk Analyst / Quant Dev (H/F) Marché / Contrepartie / P&L – Environnement Front-to-Risk

SOFTEAM
Publiée le
.NET
API
C#

3 mois
Paris, France
Contexte Mission au sein d’une équipe dédiée à l’innovation et à la transformation des dispositifs de gestion des risques de marché, de contrepartie et de liquidité, dans un environnement bancaire international exigeant. Positionnement transverse, au croisement des équipes Risk, Quant et IT, avec une forte exposition aux problématiques métiers et réglementaires. Responsabilités Modéliser et représenter des instruments financiers complexes (rates, crédit, dérivés) Implémenter et analyser les métriques de risques : VaR, stress tests, sensibilités Contribuer à la compréhension et à la décomposition du P&L des desks de trading Développer des solutions d’agrégation, de contrôle et de qualité des données de risque Participer à la cartographie des transactions et des instruments financiers Traduire les besoins métiers en solutions techniques robustes et industrialisables Intervenir sur des sujets réglementaires (remédiations, audits, exigences des régulateurs) Collaborer étroitement avec les équipes Risk, Quant et IT Environnement technique C# / .NET Python (pandas, data analysis) SQL, ETL, manipulation de données Hadoop / écosystème big data APIs / architectures distribuées Profil recherché Expérience significative en risque de marché Solide compréhension des produits financiers et des modèles de valorisation Capacité à intervenir à la fois sur des problématiques quantitatives et techniques Aisance dans la manipulation de données complexes et volumineuses Capacité à évoluer dans un environnement transverse et exigeant Langues Anglais courant indispensable Atouts de la mission Positionnement hybride quantitatif / technique rare sur le marché Forte exposition aux enjeux métiers et réglementaires Interaction directe avec des experts Risk et des équipes de trading Impact concret sur les systèmes de gestion des risques et des résultats
Freelance
CDI
CDD

Offre d'emploi
Data Scientist

R&S TELECOM
Publiée le
Agent IA
Google Cloud Platform (GCP)
Python

6 mois
Corenc, Auvergne-Rhône-Alpes
Contexte de la mission : Pour notre client dans le domaine bancaire, nous recherchons un profil de Data Scientist Tâches à réaliser : Piloter et réaliser des projets de data sciences / intelligence artificielle directement avec les métiers, sous supervision du tech lead data scientist (data préparation, modélisation, data visualisation, normes gestion de projet) Coacher des étudiants dans la réalisation de POC Réaliser des actions d’acculturation et d’animation Accompagner les métiers à la réalisation de prompt, déploiement de LLM, agents/assistants Participer à la mise en place de l’environnement technique (sous GCP notamment) et des méthodes de gestion de projet Réaliser la Maintenance en Condition Opérationnelle des cas d’usages DS/IA industrialisés Collaborer et participer activement à la vie du service et du département et à l’amélioration continue de son fonctionnement Les actions réalisées s’inscrivent dans un cadre règlementaire et normatif, tant d’un point de vue sécurité des systèmes d’information que conformité, RGPD, IA Act et éthique La mission implique également une compréhension et une traduction fonctionnelle des activités et processus bancaires, une connaissance générale des produits et services bancaires serait donc un plus Compétences recherchées : Obligatoires : · Python · SQL · Capacité à animer des ateliers, à fédérer autour des sujets Data/IA, à vulgariser pour des publics néophytes Optionnelles : · Expérience sur GCP · Expérience en chef de projet Expérience nécessaire : Minimum 5 années d’expérience en data science (ML, DL, LLM) (profil ITS : Hors grille) Langues : Français Date de démarrage : ASAP Localisation : Locaux du client situés à Corenc (Grenoble) Possibilité d’interventions hors site Client : OUI (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : OUI (Environ une fois par mois) Autre matériel requis : NON
Freelance

Mission freelance
Consultant Dataviz (H/F)

Insitoo Freelances
Publiée le
Microsoft Power BI
Python
Tableau software

2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Consultant Dataviz (H/F) à Lyon, France. Contexte : Le projet met à disposition des utilisateurs des fonctions de reporting et d'analyse de données. Ceci afin de consolider et restituer de manière fiable les données. Les principaux besoins sont les suivants : - Le suivi des performances - La production des indicateurs de pilotage - Le suivi du déploiement - Le suivi de la configuration et des résultats - Le suivi des interventions sur site et à distance (demandes de travaux) Le projet est une équipe d'une dizaine de personnes composée d’un chef de projet-Scrum master, d'un PO (BA), de développeurs BI, DevOps et d'un Lead Tech. L'application existe depuis plus de 6 ans, avec deux dernières années dédiées à des chantiers techniques. Nous souhaitons mener un chantier de refonte de nos dashboards pour améliorer notre application. Il faudra repartir de l'existant, le challenger avec les représentants des utilisateurs et proposer des évolutions pour mieux répondre aux besoins. Les missions attendues par le Consultant Dataviz (H/F) : Activité principale Analyser les besoins fonctionnels et techniques Localiser les données de production permettant de répondre au besoin Développer les processus d’intégration de données Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données), Produire des rapports ou tableaux de bords lisibles et compréhensibles par le métier, et répondant à leur besoin Tester la qualité et la performance de ses livrables Participer aux activités et cérémonies de l’équipe de développement organisées en mode Agile Activité secondaire Mettre à jour la documentation applicative Stack technique de l'équipe Informatica, Tableau Server, Power BI, Java, Oracle/PostgreSQL, Kafka/RabbitMQ, Git, Jenkins, Ansible, idathalog
Freelance
CDI

Offre d'emploi
Senior Data Engineer Big Data

VISIAN
Publiée le
AWS Cloud
Python

1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Freelance
CDI
CDD

Offre d'emploi
Développeur Python – IA / DevOps (H/F)

NSI France
Publiée le
Python

1 an
50k-55k €
500-600 €
Île-de-France, France
Nous recherchons un Développeur Python confirmé , doté d’une forte expertise technique, d’une appétence pour l’IA et d’une réelle sensibilité DevOps. Ce poste ne vise pas un profil Data Scientist ou Data Engineer : il s’agit d’un rôle de développeur Python haut niveau , capable d’intégrer, d’opérer, d’industrialiser et de fiabiliser des services IA. Responsabilité de la mission Intégrer et maintenir les services d’IA au sein d’une plateforme IA interne . Déployer et maintenir les composants de l’IA générative : LLMs, modèles d’embeddings, bases vectorielles, agents, orchestrations. Accompagner l’identification et le déploiement de cas d’usage IA pertinents au sein du groupe (contexte international). Maintenir les plateformes permettant la publication des services IA et les frameworks associés. Maintenir la plateforme de R&D mise à disposition des data scientists et leur apporter un support technique. Participer activement à la réduction de la dette technologique, notamment via la containerisation et l’industrialisation des composants.
Freelance

Mission freelance
Développeur Full Stack Vue.js / Python

HAYS France
Publiée le
Architecture
CI/CD
Docker

3 mois
400-550 €
Valbonne, Provence-Alpes-Côte d'Azur
Dans le cadre d’un renfort au sein de l’équipe Tech de notre client , acteur reconnu dans le développement de solutions digitales innovantes, nous recherchons un Développeur Full Stack Vue.js / Python confirmé . Vous interviendrez sur des fonctionnalités clés de leur plateforme , au sein d’une équipe pluridisciplinaire attachée à la qualité et à la performance. Vos Missions • Développer des interfaces front modernes et performantes en Vue.js • Concevoir, maintenir et optimiser un backend Python structuré autour de Protobuff • Contribuer activement aux choix d’architecture et arbitrages techniques • Participer à l’amélioration continue du code : tests, revue, documentation • Collaborer avec les équipes Produit, UX/UI et Tech • Travailler dans un cadre Agile/Scrum , avec une équipe expérimentée Compétences Techniques Requises Front-end Vue.js JavaScript / TypeScript HTML5 / CSS3 Vuetify Back-end Python (maîtrisé) Go / Golang (apprécié) Architectures Protobuff Base de données PostgreSQL DevOps Git, GitLab Pipelines CI/CD Docker Linux (Ubuntu) Autres Sensibilité forte aux problématiques UX/UI Capacité à collaborer avec des équipes variées Esprit analytique et autonomie
CDI

Offre d'emploi
ADMINISTRATEUR SYSTEMES ET FLUX

IBSI
Publiée le
autonomie
Bash
Powershell

10 ans
40k-45k €
400 €
Yvelines, France
Nous sommes à la recherche d’un jeune profil (1 à 5 ans d’expérience). La mission s’articule autour de la gestion des Applications métier de notre client, (MCO et déploiement) La gestion des plateformes et des outils de flux, la mise en place et MCO de scripts quotidiens permettant la simplification et l’automatisation de certaines taches en production. ATTENTION : Cette demande s'inscrit dans une démarche d'internalisation (en CDI) chez notre client final, aux termes d'une prestation de trois mois. Vos atouts et qualités : Autonome en toutes circonstances L’esprit d’équipe fait partie de vos valeurs Initiative dans le cadre de l’amélioration continue des plateformes et des systèmes Qualité relationnelle et rédactionnelle Pratique de la veille technologique Disponibilité, curiosité, motivation Activités dans le poste : Maintien en condition opérationnelle des Applications MCO et mise en place de scripts (Bash , Powershell, Python…) Paramétrage et mise en place des chanines de flux Maintien en condition opérationnelle des Flux Administration et évolution des systèmes Windows Résolution des tickets et activité
Freelance

Mission freelance
Expert sécurité des conteneurs - Openshift / Kubernetes /Sécurité des applications /Anglais (H/F)

Octopus Group
Publiée le
Ansible
DevSecOps
Java

1 an
580-650 €
Paris, France
Nous recherchons pour le compte de notre client grand-compte dans le domaine bancaire, un expert sécurité des conteneurs. Missions : 90 % de l'activité est axée dans la recherche et la gestion de vulnérabilité Mise en place de contrôles de détection de menaces Accompagnement à la remédiation rapide des failles critiques. Cadrer le projet sur les aspects sécurité opérationnelle dans un environnement cloud (privé, public et hybride). S’assurer du respect des règles de sécurité de dès le design de l’architecture et des offres de services. Proposer, tester et intégrer des solutions de sécurité adaptées au contexte du projet et de l’entreprise (sécurité réseaux, protections des données, traçabilité, etc.). Proposer et valider des patterns d’architecture de sécurité applicative et infrastructurelle. Mettre en place et automatiser des processus de sécurité dans les chaines CI/CD (gestion des vulnérabilités, gestions des certificats, protections des secrets, etc.). Mettre en place et automatiser des contrôles de sécurité, le monitoring et la remontée des Indicateurs sécurité. Accompagner les utilisateurs à l’usage des outils de sécurité mis à disposition par le projet.
Freelance
CDD

Offre d'emploi
Data Engineer Azure Databricks H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD

8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance

Mission freelance
101057/Architecte des moteurs et de l'IA - Python,Node.js,React

WorldWide People
Publiée le
Node.js
Python
React

9 mois
400-480 €
Bezons, Île-de-France
Architecte des moteurs et de l'IA - Python,Node.js,React Concevoir, structurer et faire évoluer nos moteurs logiciels et nos capacités d’IA. Concevoir, structurer et faire évoluer les moteurs applicatifs en Node et Python. Définir des architectures robustes, scalables et maintenables en environnement Kubernetes (GKE/EKS). Garantir des performances optimales pour des traitements intensifs (données, calculs, agents AI). Participation active au développement en React (front), Node & Python (back). Mise en place de microservices performants, adaptés aux contraintes SaaS et data-heavy. Optimisation et automatisation des déploiements via CI/CD (GitHub Actions ou équivalent). Concevoir et déployer des agents AI légers (AWS Lambda, microservices AI autonomes). Intégrer de manière cohérente les modèles LLM, embeddings, pipelines IA, outils vectoriels. Superviser la qualité, la robustesse et la fiabilité des agents dans leur exécution. Définir les pipelines de préparation des données, entraînement, validation et mise en production. Intégrer des outils MLOps (MLflow, Vertex AI, SageMaker ou équivalent). Veiller à la reproductibilité, la traçabilité et la gouvernance des modèles. Travailler en étroite collaboration avec les équipes Data, Produit, Impact scientifique et DevOps. Être l’interlocuteur technique clé pour les sujets IA, moteurs et calculs back-end. Faciliter la communication pour garantir la cohérence architecture/produit/IA. Rester à jour sur les innovations IA, agent frameworks, architectures serverless et MLOps. Être force de proposition pour optimiser les moteurs de calcul, les workflows AI et l’usage du cloud. Participer à la définition d’une feuille de route technique moderne et innovante.
Freelance

Mission freelance
Expert KIBANA / Analyse de données H/F

LOMEGARD
Publiée le
Bitbucket
Elasticsearch
Jenkins

1 an
450-500 €
Île-de-France, France
Dans un environnement orienté observabilité et pilotage de la performance, la mission consiste à exploiter les données collectées et indexées dans Elasticsearch pour construire des dashboards Kibana complets, lisibles et actionnables . L’objectif est d’assurer une visibilité de bout en bout sur les flux de données, les performances applicatives et les processus métier, tout en garantissant la qualité et la pertinence des informations restituées. Concrètement, la personne devra : Concevoir et maintenir des dashboards Kibana clairs, performants et orientés suivi de bout en bout Transformer les besoins métiers et techniques en visualisations utiles, lisibles et actionnables Assurer la visibilité sur les flux de données, les performances applicatives et les processus métier Exploiter les fonctionnalités avancées de Kibana : visualisations, filtres interactifs, agrégations, drill-down Analyser et structurer les données issues de THEIA, Filebeat et Logstash pour maximiser leur valeur dans Kibana Collaborer avec les équipes Elasticsearch pour optimiser les requêtes, les index patterns et les performances d’affichage Utiliser le Machine Learning de Kibana pour détecter les anomalies, identifier les tendances et anticiper les dérives Garantir la qualité, la cohérence et la pertinence des données présentées dans les dashboards Mettre en place des indicateurs de suivi et produire des reportings clairs sur l’état des systèmes et des alertes Proposer des améliorations continues pour rendre l’analyse plus rapide, plus fiable et plus exploitable
Freelance

Mission freelance
Data Scientist Python, Tensorflow Nantes/st

WorldWide People
Publiée le
Python

12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Freelance
CDI

Offre d'emploi
Architecte / Tech Lead IA Python

TS-CONSULT
Publiée le
Azure
Tensorflow

1 an
Île-de-France, France
Bonjour a tous, Profil recherché : Solution Architecte expérimenté avec une double compétence Python/IA et maîtrise du vibe coding, capable de concevoir des architectures innovantes tout en accompagnant une équipe de développeurs dans un contexte agile et international. Hard Skills : • 10 ans d'expérience minimum en développement Python avec une expérience confirmée en architecture de solutions IA/ML • Expérience significative en tant que Tech Lead IA avec accompagnement et montée en compétences d'équipes de développement • Expérience démontrée et expertise reconnue en vibe coding avec utilisation avancée d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Capacité à former et coacher les équipes sur les meilleures pratiques de développement assisté par IA • Expertise confirmée en architecture de solutions IA/ML et intégration de modèles d'intelligence artificielle en production • Maîtrise avancée de Python 3.8+ et des bonnes pratiques de développement • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face Transformers • Expérience confirmée avec les LLMs (fine-tuning, RAG, prompt engineering, agents IA, orchestration) • Maîtrise des frameworks modernes : FastAPI, LangChain/LlamaIndex, Streamlit/Gradio • Connaissance des architectures microservices, API REST/GraphQL, event-driven, architectures orientées données • Expérience des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud (SageMaker, Azure ML, Vertex AI, Bedrock) • Connaissance approfondie des technologies MLOps et pipelines CI/CD pour modèles IA • Maîtrise SQL et NoSQL, Vector Databases (Pinecone, Weaviate, Milvus) • Expertise en DevOps, automatisation des tests, conteneurisation (Docker/Kubernetes) • Expérience en data engineering et pipelines de données (Airflow, Spark, Kafka) • Connaissance des outils de versioning et collaboration (Git, GitLab/GitHub) • Un plus : Connaissance Java/Spring pour interactions avec legacy systems Soft Skills : • Excellentes capacités de leadership technique et de mentorat • Esprit critique développé face au code généré par IA et capacité à valider la qualité • Pédagogie et capacité à transmettre les bonnes pratiques du vibe coding à l'équipe • Esprit d'innovation et de veille technologique active sur l'IA • Rigueur dans la conception architecturale et les bonnes pratiques • Autonomie et force de proposition • Initiative dans la résolution de problèmes complexes • Très bon relationnel et capacité à communiquer avec différents interlocuteurs (techniques et métiers) • Esprit agile et pragmatique : équilibre entre vitesse et qualité • Capacité à fédérer une équipe autour d'une vision technique Anglais Courant.
Freelance

Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.

WorldWide People
Publiée le
PySpark
Python

12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

721 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous