Trouvez votre prochaine offre d’emploi ou de mission freelance Python

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 764 résultats.
Freelance

Mission freelance
Intégrateur Cloud OpenStack Senior (H/F)

ADSearch
Publiée le
Ansible
CI/CD
Gitlab

3 mois
Noisy-le-Grand, Île-de-France
En tant qu’Intégrateur Cloud OpenStack, vous interviendrez sur l’ensemble du cycle de vie des plateformes Cloud : Conception (design) d’architectures Cloud basées sur OpenStack Déploiement, configuration et intégration de plateformes OpenStack Réalisation des montées de version et opérations de maintenance évolutive Participation à l’industrialisation des déploiements et à l’automatisation des tâches Collaboration étroite avec les équipes infrastructure, réseau et exploitation Contribution à la documentation technique et aux bonnes pratiques
Freelance

Mission freelance
Data Platform Engineer

Cherry Pick
Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Freelance
CDI

Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud

VISIAN
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API

3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Freelance

Mission freelance
LEAD MACHINE LEARNING MLOPS

Atlas Connect
Publiée le
Agent IA
API
API REST

6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
Freelance
CDI
CDD

Offre d'emploi
Expert technique infra /Virtualisation

Etixway
Publiée le
Ansible
API REST
Bash

6 mois
40k-50k €
400-490 €
Nantes, Pays de la Loire
Pour le compte de l'un de nos clients (secteur bancaire sur Nantes), nous somme à la recherche d'un Expert technique Infra/Virtualisation. Environnement et contexte mission : Au sein de l'équipe Virtualisation - Automatisation de la banque., vous serez en charge de l'administration et de l'évolution de plateformes de Virtualisation fortement automatisées. Le parc à gérer se compose d'environ 2400 ESX et plus de 70 000 VMs. Description du projet : La mission consiste à intégrer les processus opérationnels de l'équipe Virtualisation - Automatisation. Cette mission est soumise aux astreintes structurelles et aux interventions ponctuelles en HNO. Description de la prestation : Accompagner la croissance des métiers tout en optimisant les plateformes de Virtualisation dans un environnement complexe. Contribuer aux projets techniques et métiers en collaboration avec les équipes réseaux, stockage et DevOps. Elaborer et mettre en œuvre des solutions d'industrialisation et d'automatisation. Déployer et maintenir des infrastructures de virtualisation ESXi, NSX, VSAN. Traiter les incidents et les demandes. Résoudre les problèmes.
Freelance

Mission freelance
Consultant DevOps Senior Cloud (AWS/Azure) - Anglais Courant

LINKWAY
Publiée le
Ansible
AWS Cloud
AWS CloudFormation

3 mois
400-550 €
75017, Paris, Île-de-France
La mission consiste à intégrer une équipe d'infrastructure critique en tant que Consultant DevOps Senior. L'objectif est d'assurer le maintien en condition opérationnelle, l'évolution et la sécurité des environnements Cloud (AWS ou Azure) dans un contexte technique exigeant. Le consultant aura pour responsabilité première la gestion intégrale des pipelines CI/CD. Il s'agira de concevoir, implémenter et maintenir des chaines d'intégration et de déploiement continu pour automatiser les processus de build, de test et de release. Une expertise spécifique est requise sur l'automatisation liée aux systèmes de fichiers de stockage (storage fileshare). Le volet Infrastructure as Code (IaC) constitue une part majeure de l'activité. Le consultant devra utiliser Terraform ou CloudFormation pour gérer le provisionnement et la configuration de l'infrastructure via le code. Il devra s'assurer que l'architecture est "scalable" afin de répondre efficacement aux variations de charge. L'automatisation des tâches récurrentes et complexes passera par une maîtrise avancée du scripting, notamment via Python et Ansible. En matière d'observabilité, le consultant mettra en œuvre des solutions de monitoring et de logging pour suivre la performance des systèmes en temps réel. Il devra analyser les logs de manière proactive pour identifier les goulots d'étranglement et résoudre les incidents avant qu'ils n'impactent les services. La sécurité (DevSecOps) doit être nativement intégrée dans les pipelines. Le consultant appliquera les pratiques de sécurité et les contrôles de conformité automatisés au sein du CI/CD. Il travaillera également sur la documentation technique : création de plans de tests, documentation de handover pour les équipes QA et experts, et rédaction de procédures claires pour assurer la pérennité des automatisations mises en place.
Freelance

Mission freelance
Cloud Network & Automation Engineer AWS

Tenth Revolution Group
Publiée le
CI/CD
Datadog
Linux

3 mois
110-550 €
Paris, France
Vous ne serez pas là pour “maintenir des routeurs”. Votre mission : coder, automatiser, sécuriser et scaler une plateforme IoT critique utilisée par des centaines de collectivités. Vos responsabilités principales : Automatisation & développement : scripts et outils réseau en Python / TypeScript, workflows et APIs, IaC (Terraform/CDK), pipelines CI/CD (GitHub Actions). Réseau cloud & scalabilité : VPC, routing, firewalling, VPN, peering, diagnostic d’incidents réseau à grande échelle, gestion de routeurs IoT 4G/5G. Sécurité by design : rotation automatique de certificats, hardening cloud et réseau, conformité cloud souverain. Observabilité & fiabilité : dashboards, alerting, SLO, automatisation de la détection et remédiation d’incidents, amélioration de la fiabilité globale. ✨ Pourquoi ce poste est unique : plus de code que de configuration, impact direct sur un produit utilisé par des centaines de collectivités, sujets souveraineté, sécurité et performance, équipe qui automatise tout.
Freelance

Mission freelance
Directeur de projet

SKILL EXPERT
Publiée le
Agile Scrum
Apache NiFi
Cloud

1 an
630-660 €
Saint-Denis, Île-de-France
Contexte de la prestation La division CAP de MATHIS SNCF Réseau participe aux grands chantiers de modernisation du réseau ferroviaire. Il consiste à automatiser l'ensemble des processus de surveillance, maintenance, ingénierie . L'objectif est de tirer parti des opportunités offertes par les nouvelles technologies dans la collecte et le traitement des données pour réduire au maximum l'impact sur les circulations. Au sein de ce programme et en lien avec la gouvernance de la donnée, un socle centralisé d’ingestion, de stockage, de traitement et de mise à disposition des données provenant des différentes sources, à destination des différents consommateurs du programme, a été construit. En 2025-2026-2027, ce socle va évoluer selon les axes suivants : •Rapatriement d’une partie des services techniques, à ce jour hébergé chez IT Novem, dans le SI géré par la DGNUM •Déploiement de la plateforme data basée sur l’outil Databricks et les nouvelles fonctionnalités de gestion de la donnée (sql endpoint, unity Catalog, deltasharing, …) •Déploiement des plateformes d’ingestion basée sur l’outil Apache Nifi et les nouvelles fonctionnalités sur AKS. •Intégration des applications d’espace d’analyse, selon la cible d’architecture et les points précédents dans une cible globale •Extension du puits acquisition SNCF RESEAU vers des usages département MATHIS et plus en fonction des besoins DGNUM.
Freelance
CDI

Offre d'emploi
Ingénieur Data Event Management

VISIAN
Publiée le
Apache Kafka
Java
Python

1 an
40k-45k €
230-540 €
Paris, France
Intégration au sein de l'équipe Data Event Management Intégration au sein de l'équipe Data Event Management qui gère les trois offres de services suivantes : Offre Infra. Kafka sur ITCloud OnPremise Offre Infra. Kafka sur IBMCloud/dMZR Activités principales Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail ITIL Agile/Scrum à l'échelle Product Based Projets principaux en cours Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK Technologies Utilisées Outils administratifs: ServiceNow, Jira, Confluence Infrastructure as Code: Ansible, Terraform Langages: Bash, Java (Spring/JHipster), Python Repository: Artifactory Database: SQL Server, PostgreSQL Conteneurisation: Docker/Kubernetes Provider Cloud: ITCloud, IBMCloud Orchestration: Airflow, Autosys, BPM Versionning: Git Messaging: Kafka CI/CD: GitLab CI Operating system: Redhat Monitoring: ELK, Dynatrace, LogDNA, Sysdig Sécurité: HashiCorp Vault, Cyberarc
Freelance
CDI

Offre d'emploi
Développeur Summit (H/F)

STORM GROUP
Publiée le
C#
C/C++
Java

3 ans
55k-60k €
500-550 €
Île-de-France, France
Contexte : Expert IT API Summit, C/C++ Missions : -Intégré au sein de l'un de nos pôles Summit CORE, le MOE assurera toutes les évolutions/maintenances des modules internes autour du progiciel Summit (PNL Explain, Credit Entity, OST, SRM, STP, VALO...) -Support IT Dev uniquement Level 3 -Exécuter des tâches autour du DevSecOps sous la responsabilité du Tech Lead Périmètre fonctionnel : - Front / Middle Office - Produits taux, dérivés de taux et credit - P&L, Booking, trade wokflow/live cycle, MKT data - STP
CDI

Offre d'emploi
Middle-End Engineer- (H/F)

EASY PARTNER
Publiée le
CAO
Python
Shell

Grenoble, Auvergne-Rhône-Alpes
Contexte du poste Aujourd'hui en pleine expansion, nous comptons 45 collaborateurs au sein de notre équipe dynamique. Nos valeurs, focalisées sur l'Humain et la Planète, nous mènent à exceller dans les domaines de la santé, de la sécurité, et de l’environnement. Pour soutenir cette croissance et répondre à nos enjeux stratégiques, nous recherchons un(e) Ingénieur(e) Middle End prêt(e) à manier ses compétences en microélectronique. Vous rejoindrez notre département technique, un pôle essentiel où l'innovation rime avec responsabilité. Missions Principales - Participer à la définition des contraintes de timings en harmonie avec les designers numériques et le responsable Place & Route. - Déployer le flux de conception numérique (Digital Design Flow) sur les circuits. - Garantir l'implémentation et la validation de la stratégie DFT des circuits. Annexes - Maintenir le flux de conception numérique avec l’évolution des outils et des technologies. - Collaborer avec l’ingénieur Test pour la validation des implémentations. Stack technique À Maîtriser - Outils CAO Cadence : Genus, Modus, Conformal, JasperGold, Joules. - Technologies de scripts : tcl/tk, shell, awk, perl, python. Environnement technique global - Synthèse, DFT, ATPG, Preuve formelle, Lint & CDC, Power Analysis.
Freelance

Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)

Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data

2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Freelance

Mission freelance
Business Analyst Junior Lyon

Codezys
Publiée le
Angular
API
Business Analysis

6 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
Objectif : Développement de la composante Datamart de la nouvelle CMDB. Technologies utilisées : Nautobot : Framework développé spécifiquement pour les CMDB de domaine, principalement dédié à la gestion des serveurs et des réseaux. CMDB fédérée : Solution interne conçue avec Python, Angular, containers, et Oracle. Datamart : Étude en cours afin de déterminer la technologie à adopter. Des compétences en outils de gestion de données (notamment PowerDesigner ou équivalent) et en solution Elasticsearch sont souhaitées. Missions du Business Analyst recherché : Analyse et communication : Recueillir et analyser les besoins des utilisateurs, définir les spécifications fonctionnelles et techniques. Documentation : Formaliser et hiérarchiser les besoins métier, rédiger les spécifications fonctionnelles et les cahiers des charges, et documenter les processus liés à la CMDB. Accompagnement et formation : Soutenir les équipes métier dans la mise en œuvre de la solution et contribuer à la création de supports de formation. Collaboration avec les équipes de développement : Travailler en étroite coordination avec les développeurs basés à Porto pour assurer une compréhension précise des besoins et garantir la conformité des solutions techniques. Date de démarrage : 15 février 2026. Lieu de réalisation de la mission : Lyon (merci d’indiquer précisément la localisation dans vos propositions). Déplacements à prévoir : oui — Paris, Strasbourg, Porto.
Freelance

Mission freelance
Administrateur VTOM

HAYS France
Publiée le
Apache
AWS Cloud
Linux

6 mois
400-450 €
Paris, France
La maîtrise de VTOM est indispensable : c’est la compétence clé de ce poste. Le consultant aura pour mission d’assurer le bon fonctionnement, la fiabilité et l’optimisation de toutes les chaînes d’ordonnancement. Il jouera un rôle central dans la coordination des traitements métiers, la maintenance des plateformes et l'accompagnement des équipes projets. Responsabilités principales Administrer et maintenir les serveurs VTOM Vous garantissez la stabilité, la performance et la disponibilité de l’outil. Configurer, optimiser et superviser les jobs VTOM Paramétrage des tâches Suivi des exécutions Correction des anomalies Développer et maintenir des scripts (Shell, Python, etc.) Ces scripts seront utilisés pour automatiser et orchestrer les traitements. Encapsuler les scripts métiers dans VTOM Vous transformez les besoins fonctionnels en jobs techniques fiables. Assurer la MCO des chaînes d’ordonnancement Analyse proactive Résolution d’incidents Optimisation continue Préparer et valider les mises en production Notamment via la télédistribution. Accompagner les équipes métiers et projets Vous les conseillez dans la rédaction de leurs plans d’ordonnancement et dans l’intégration optimale de leurs applications. Participer aux choix d’architecture technique Dans des environnements hybrides : datacenter, AWS, Azure. Contribuer à la documentation technique et au reporting Rédaction ou mise à jour des procédures Reporting mensuel d’activité Respect strict des règles de sécurité Environnement technique Systèmes : Unix (AIX / Solaris), Linux (Red Hat, Suse, Ubuntu…), Windows Cloud : AWS, Azure Bases de données : Oracle, SQL Server, PostgreSQL, Ingres Solaris, MongoDB, Redis, Couchbase Middleware : Apache, Tomcat, Weblogic, MQ, Tuxedo, CFT Outils DevOps : Ansible, Jenkins, Terraform, Docker, Kubernetes Supervision : Nagios, Datadog, Splunk
Freelance

Mission freelance
Développeur SEAL

Codezys
Publiée le
Deep Learning
Intelligence artificielle
Java

6 mois
450-500 €
Courbevoie, Île-de-France
Dans le cadre des activités d'une grande entreprise de services publics, le/la Développeur(se) spécialisé(e) intervient sur des sujets à forte composante technique et innovation, liés notamment aux environnements connectés à des compteurs intelligents, aux protocoles de communication et aux problématiques d’aide à la décision. La mission nécessite une expertise confirmée en développement logiciel, une bonne compréhension des systèmes communicants (notamment CPL / radio fréquence) ainsi qu’une capacité à intégrer des approches Machine Learning / Deep Learning pour répondre à des besoins métier et techniques. Le/la consultant(e) participera à l’analyse des besoins en systèmes informatiques, à la proposition de solutions adaptées, puis à la mise en œuvre technique sur différents environnements (Windows/Linux/Raspberry Pi), en s’appuyant sur des compétences en modélisation, algorithmie (dont théorie des graphes) et programmation. 2) Objectifs & livrables attendus Le/la prestataire devra contribuer aux activités suivantes : 🎯 Analyse & cadrage Réaliser l’analyse des besoins en systèmes d’information en lien avec les enjeux de l’organisme Proposer des solutions techniques et fonctionnelles adaptées à la situation Participer à la démarche de gestion de projet en respectant les processus internes 🧠 Aide à la décision / optimisation Exploiter les concepts de théorie des graphes Contribuer à des problématiques d’aide à la décision Intégrer des approaches Machine Learning / Deep Learning selon les cas d’usage 💻 Développement & implémentation Développer et maintenir des composants applicatifs en : - Java / Python / C++ Mettre en œuvre des traitements, scripts et analyses sur : - Windows, Linux, Raspberry Pi Exploiter les librairies Python nécessaires à l’analyse : - Matplotlib, Numpy 📡 Communication & protocoles Intervenir dans des contextes liés aux télécommunications, notamment en ce qui concerne les réseaux CPL et radio fréquence Travailler autour des protocoles et flux : - ZigBee, Modbus, Protocoles liés à des compteurs communicants Comprendre et exploiter les protocoles CPL G1 et CPL G3 Maîtriser les principes liés à la chaîne de communication des compteurs intelligents

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

764 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous