Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Lyon

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 35 résultats.
Freelance

Mission freelance
Développeur Front-End Odoo

TEKTEO
Publiée le
CSS3
Forms
Gitflow

1 an
100-400 €
Lyon, Auvergne-Rhône-Alpes
Le Développeur Front-End Odoo est chargé de concevoir, développer et maintenir les interfaces utilisateur de la plateforme Odoo Community dans le cadre du dispositif TMA. Il intègre les maquettes produites par le Designer UX/UI, développe des composants dynamiques en JavaScript via le framework OWL et implémente les vues XML spécifiques à Odoo telles que QWeb, formulaires, listes ou kanban. Il assure la responsivité, la compatibilité multi-navigateurs et le respect des normes d’accessibilité RGAA. Il intervient également sur la correction d’anomalies, l’optimisation des performances front-end et la rédaction de tests unitaires et d’intégration. Son travail contribue à garantir une interface stable, performante et conforme aux standards institutionnels.
Freelance

Mission freelance
Ingénieur DevOps (H/F)

Insitoo Freelances
Publiée le
Administration linux
Ansible
Gitlab

2 ans
420-480 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur DevOps (H/F) à Lyon, France. Contexte : Une équipe DevOps en charge de la mise en place et du maintien en condition opérationnelle des éléments d’infrastructure et outillage pour les Data Scientists et développeurs du département. Le projet met à disposition des équipes Data une plateforme de travail structurée autour de 3 axes : - des IDE complets pour développer, s'interfacer avec les partenaires du projet et explorer la donnée dans les meilleures conditions - des environnements applicatifs sécurisés et scalables pour permettre aux éléments produits par les utilisateurs d'atteindre un haut niveau de performance et de résilience -de l'outillage CI/CD clé en main pour uniformiser et fiabiliser ce processus. Les missions attendues par le Ingénieur DevOps (H/F) : Activité principale Construire et faire évoluer les outils nécessaires au déploiement continu et automatisé des applications web et traitements de données produits par les data analystes / data scientists Assurer l’évolution des éléments d’infrastructure, middleware et outillage en fonction des contraintes d’obsolescence, de sécurité et de fonctionnalité Echanger avec l’ensemble des acteurs du SI (Développeurs, Sécurité, Architectes, Exploitants, etc…) pour s'assurer de la bonne adéquation de la solution avec le cadre d'entreprise Créer et maintenir la documentation qui doit accompagner les changements mis en place Participation aux cérémonies d’équipe Activité secondaire Etudier l'accostage vers la data analyse de demain en lien avec le pôle SI DATA (cloud / on prime) pour assurer aux équipes analytiques d'IML une continuité d'activité dans une nouveau contexte DSI Stack technique de l'équipe · Système : Infrastructure 100% linux : RedHat, CentOS, Alpine · Middleware : Apache, Proftpd, JupyterLab, node, Shiny-server, VSCode server · Scripting/dev : Shell, Python, R, groovy, yaml, HCL (Terraform) · Bases de données : PostGreSQL (offre PGaaS notamment), espace produit sur B4ALL · CI/CD : Git, GitLab CI, Ansible, Jenkins, HELM, Artifactory, Vault, Terraform · Conteneurisation : Docker, Kubernetes, Podman · Métrologie : Grafana · Ordonnancement : Control-M / Airflow · Gestion de projet : Jira, Confluence
Freelance

Mission freelance
DevOps

Codezys
Publiée le
Ansible
Docker
Git

12 mois
350-420 €
Lyon, Auvergne-Rhône-Alpes
Présence sur site requise 3 jours par semaine. Au sein du pôle Système d'Information Chaînes Communicantes de la Département des Systèmes d'Information , l'équipe rassemble des briques applicatives et data essentielles à la supervision, la résilience, l’intelligence du réseau électrique. En intégrant des outils de visualisation de crise, des capteurs Internet des Objets (IoT) , des dataproducts, un socle DevOps mutualisé, l'équipe incarne une approche unifiée et opérationnelle de la donnée réseau. IndusML est une équipe DevOps rattachée à une unité dédiée, œuvrant pour un département spécifique. Elle est en charge de la mise en place et du maintien en condition opérationnelle des éléments d’infrastructure et outillage pour les DataScientists et développeurs de ce département. Le projet met à disposition des équipes Data une plateforme de travail structurée autour de 3 axes : des Environnements de Développement Intégrés (IDE) complets pour développer, s'interfacer avec les partenaires du projet et explorer la donnée dans les meilleures conditions des environnements applicatifs sécurisés et scalables pour permettre aux éléments produits par les utilisateurs d'atteindre un haut niveau de performance et de résilience de l'outillage CI/CD clé en main pour uniformiser et fiabiliser ce processus Objectifs et livrables Activité principale : Construire et faire évoluer les outils nécessaires au déploiement continu et automatisé des applications web et traitements de données produits par les analystes de données / scientifiques de données Assurer l’évolution des éléments d’infrastructure, middleware et outillage en fonction des contraintes d’obsolescence, de sécurité et de fonctionnalité Echanger avec l’ensemble des acteurs du Système d'Information (Développeurs, Sécurité, Architectes, Exploitants, etc.) pour s'assurer de la bonne adéquation de la solution avec le cadre d'entreprise Créer et maintenir la documentation qui doit accompagner les changements mis en place Participer aux cérémonies d’équipe Activité secondaire : Étudier l'intégration vers l’analyse de données future en lien avec le pôle Système d'Information DATA (cloud / on-premise) pour assurer aux équipes analytiques une continuité d'activité dans un nouveau contexte Système d'Information .
Freelance

Mission freelance
Développeur(euse) Big Data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Git
Oracle

12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
CDI

Offre d'emploi
Product Owner H/F

█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
DevOps

69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
JIRA
Linux
Python

24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Freelance
CDI

Offre d'emploi
Chef de Projet AMOA SENIOR

Codezys
Publiée le
Git
Powerpoint
Python

6 mois
40k-50 160 €
450-520 €
Lyon, Auvergne-Rhône-Alpes
Expérience : 5 ans minimum TJM vente max : 550 € Localisation : Lyon Deadline réponse : 03/02/2026 Durée : 6 mois minimum Contexte : Au sein d'une équipe dédiée à la gestion des systèmes d'information d'une grande entreprise. L'équipe est responsable de l'ensemble des chaînes communicantes, notamment : CCMA : chaîne communicante pour le marché de masse (exemple : équipements connectés) CCMA : chaîne communicante pour le marché d’affaires (exemple : équipements pour les industriels) IOT : ensemble de capteurs communicants fournissant des informations clés sur le réseau de distribution (exemple : capteur de niveau des réservoirs dans des équipements hospitaliers) I3C : postes sources Le système d'information permet de superviser et de monitorer la chaîne communicante via quatre fonctionnalités principales : Monitoring de la chaîne communicante Distribution à distance des logiciels et paramètres Gestion des dysfonctionnements du parc Gestion du référentiel Une entité de l'entreprise spécialisée dans la gestion des actifs et la maintenance étudie et développe des produits data innovants sur des sujets tels que la maintenance prédictive, la mobilité électrique, et la gestion des charges sur le réseau. La prestation aura une durée ferme de six (6) mois à compter de la date de commande, avec possibilité de reconduction par périodes optionnelles de six (6) mois, dans la limite de la durée du contrat.
CDI

Offre d'emploi
2. Expert Sauvegardes / VEEAM Senior

ON-X
Publiée le
Ansible
API
Plan de reprise d'activité (PRA)

45k-65k €
Lyon, Auvergne-Rhône-Alpes
Contexte : Mission auprès de la Direction DIGIT de notre client grand compte pour renforcer l’expertise autour des solutions de sauvegarde VEEAM dans des environnements datacenters et sites de production nucléaire. L’expert sera responsable de la conception, du déploiement, des migrations, de la supervision et de la maintenance prédictive de la plateforme sauvegarde, dans un cadre exigeant avec des livrables de niveau États-majors. Environnement technique / compétences clés : Veeam Backup & Replication, Veeam One Architecture et qualification d’infrastructures de sauvegarde PRA / résilience, tests, plans de montée de version Automatisation (Ansible, Python, API) Rédaction de documents techniques complets et structurés
CDI
Freelance

Offre d'emploi
Ingénieur de production Linux

VISIAN
Publiée le
Bash
CI/CD
Kubernetes

3 ans
43k-58k €
350-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de l’exploitation d’une plateforme critique d’authentification et de signature électronique du secteur bancaire, nous recherchons un Ingénieur de Production Senior pour renforcer le pôle RUN . La plateforme gère plusieurs milliards d’opérations annuelles et repose sur un environnement Linux étendu (plusieurs centaines de serveurs). L’équipe assure l’exploitation, la supervision, la gestion des incidents N2/N3 ainsi que l’amélioration continue de l’industrialisation et de la sécurité. Missions principales 🔧 RUN – Exploitation & Continuité Assurer le maintien en conditions opérationnelles des applications Gérer les incidents N2/N3 techniques et fonctionnels Participer activement aux cellules de crise Assurer la communication technique avec les fournisseurs Contribuer aux comités opérationnels Optimiser la supervision (proactivité sur détection d’incidents) Participer à l’ordonnancement des traitements (création et suivi de chaînes) 🚀 BUILD – Contribution transverse Participer aux déploiements applicatifs (Hors Prod → Prod) Contribuer au suivi et à la planification des changements Participer à la construction des chaînes CI/CD Anticiper l’exploitabilité dès la phase projet Participer aux validations techniques (GO/NOGO) 🔐 Sécurité & Amélioration continue Contribuer aux sujets liés à l’authentification et à la signature électronique Renforcer les pratiques sécurité (certificats, cryptographie, PKI) Proposer des optimisations techniques (scripts, procédures, automatisation) Participer aux astreintes et interventions HNO Environnement technique Systèmes Linux RedHat Bases de données Oracle Middleware Apache Tomcat Containers OpenShift / Kubernetes Supervision Zabbix Grafana AppDynamics ELK Déploiement & CI/CD XLDeploy XLRelease Jenkins Ansible Ordonnancement VTOM Ticketing ServiceNow Scripting / Langages Bash Python Java Outils projet Jira Confluence Sécurité HSM PKI / gestion certificats Firewall applicatif Cryptographie Compétences requises Impératif Linux RedHat – Confirmé Oracle SQL – Junior OpenShift / Kubernetes – Junior Anglais professionnel Français courant Souhaitable CI/CD Scripting (Bash / Python)
Freelance

Mission freelance
Data Engineer Azure Databricks

CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse

3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
Big Data
Cloudera
Data Lake

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
Freelance

Mission freelance
Data Architect

Codezys
Publiée le
API
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Freelance
CDI
CDD

Offre d'emploi
Business Analyst IT – Datamart & CMDB

Deodis
Publiée le
Agile Scrum
Apache Kafka
CMDB

1 an
52k €
400-550 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du programme GALAXIE , visant à mettre en place la CMDB du futur de BPCE-IT , le/la Business Analyst IT intervient sur le développement de la brique Datamart de la nouvelle CMDB. Il/elle recueille, analyse et formalise les besoins métiers , rédige les spécifications fonctionnelles et techniques ainsi que les cahiers des charges à destination des équipes de développement , et contribue à la structuration et à la gouvernance de la donnée. En étroite collaboration avec les équipes de développement, notamment à Porto , et les parties prenantes métiers et infrastructures, il/elle veille à la cohérence des solutions avec les exigences fonctionnelles, les pratiques ITIL et Agile , et les enjeux de transformation du SI. Le poste implique également l’accompagnement des utilisateurs, la participation aux phases de recette MOA et la contribution à l’amélioration continue des processus de gestion de configuration dans un environnement international et complexe.
CDI

Offre d'emploi
Développeur Big Data Expérimenté (H/F)

CITECH
Publiée le
Cloudera
Git
Hadoop

50k-60k €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Développeur Big Data Expérimenté (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. L’objectif de la mission est dans le cadre de la réalisation et la maintenance de développements nécessaires à l'alimentation d’une plateforme, ainsi que la mise en place d'extractions de données et l'accompagnement des utilisateurs finaux. Description du poste 👉 Vous aurez les missions suivantes : 👈 🔸 Développement et maintenance : Assurer l'alimentation du Datalake et faire évoluer les flux en fonction des besoins métiers. 🔸 Conception et architecture : Mettre en place des extractions de données et contribuer à garantir la tenue de la plateforme en environnement opérationnel. 🔸 Support et expertise : Assurer le support de niveau 2, apporter une expertise technique sur l'écosystème Hadoop et réaliser des revues de code. 🔸 Coordination : Collaborer avec la Direction Technique Informatique et la Gouvernance de la Donnée pour le respect et l'évolution des modèles référencés. 🔸 Documentation : Rédiger la documentation technique (spécifications, dossiers d'exploitation, manuels d'installation) et les bilans de tests.
Freelance

Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)

EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab

230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

35 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lyon, Auvergne-Rhône-Alpes
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous