Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 764 résultats.
Mission freelance
Ingénieur Support Technico fonctionnel – Front Office ( H/F)
FUZYO FRANCE
Publiée le
Linux
Python
Support technique
3 ans
190-390 €
Seine-Saint-Denis, France
Dans le cadre du support des plateformes web critiques utilisées par les équipes Sales et Traders d’une grande banque d’investissement, vous intervenez en interface directe entre les métiers, les équipes techniques, la production et les développeurs. Le contexte est international , exigeant et orienté disponibilité & performance. Missions principales Assurer le support fonctionnel N1/N2 des applications Front Office. Diagnostiquer, analyser et qualifier les incidents fonctionnels et applicatifs . Lire, comprendre et analyser des logs applicatifs . Réaliser des requêtes SQL (investigation, extraction). Développer de petits scripts Python pour automatisation / reporting. Accompagner les utilisateurs internes dans l’usage quotidien des applications. Travailler en coordination étroite avec les équipes techniques, DevOps et infrastructure. Compétences techniques requises SQL (interrogation / investigation de données) Python (scripting simple, automatisation) Lecture et compréhension de logs applicatifs Environnements Linux / OS serveurs Notions d’architectures web (3‑tiers, HTTP, APIs) Compétences fonctionnelles & comportementales Excellent relationnel (interactions directes avec Sales / Traders) Capacité à gérer le stress et les priorités Curiosité technique et goût pour le troubleshooting Rigueur, pédagogie, professionnalisme
Mission freelance
Fullstack Python/React Developer
Phaidon London- Glocomms
Publiée le
Python
React
12 mois
600-800 €
Paris, France
Développeur Full Stack Python / React Localisation : Paris, France (hybride) Type de contrat : 12 mois Contexte Nous accompagnons une grande institution bancaire basée en France dans un projet stratégique visant à concevoir une nouvelle génération de portail en ligne à destination de ses clients particuliers et entreprises. Cette mission consiste à construire une plateforme web sécurisée, évolutive et cloud-native , centralisant l’ensemble des services bancaires digitaux : gestion des comptes, paiements, souscriptions de produits financiers, assistance client et consultation d’informations en temps réel. Dans le cadre de cette transformation, le Développeur Full‑Stack Python/React jouera un rôle clé dans la conception et le développement de la plateforme from scratch , en garantissant un haut niveau de cybersécurité, une expérience utilisateur fluide et la conformité aux normes et réglementations du secteur bancaire. Responsabilités Concevoir et développer des applications full‑stack en Python (FastAPI / Django / Flask) et React Construire un portail web robuste offrant des fonctionnalités bancaires digitales complètes Développer des API sécurisées et structurées pour les équipes internes et les partenaires externes Mettre en place des flux de données en temps réel ou quasi temps réel pour l’affichage d’informations bancaires Traduire les besoins métiers en solutions techniques scalables , maintenables et performantes Développer des composants cloud‑native sur Microsoft Azure (App Services, AKS, Azure SQL, Storage, Key Vault, Monitor) Concevoir et maintenir des pipelines CI/CD suivant les meilleures pratiques Collaborer avec les architectes, data engineers et autres développeurs au sein de l’équipe SI Documenter les solutions et contribuer activement au partage de connaissances Faire preuve d’autonomie, de proactivité et d’efficacité dans un environnement dynamique Compétences Techniques Requises Expertise en développement backend Python (FastAPI fortement apprécié ; Django/Flask acceptés) Maîtrise de React et des outils modernes du frontend : TypeScript Hooks Bibliothèques de gestion d'état (Redux, Zustand, Recoil, etc.) Expérience en développement cloud‑native sur Microsoft Azure , incluant : App Services ou Kubernetes (AKS) Azure SQL & Storage Key Vault Monitor / Application Insights Solide expérience en conception d’API (REST ; GraphQL apprécié) Connaissances en architectures sécurisées et en gestion des identités : OAuth2, OpenID Connect Azure Active Directory MSAL
Offre d'emploi
QA Automaticien Python
Ecco Technologies
Publiée le
Automatisation
Méthode Agile
pytest
5 ans
35k-43k €
300-400 €
Alpes-Maritimes, France
EccoTechnologies accompagne un client grand compte dans le cadre d’un programme de transformation et de modernisation de son système d’information. La mission s’inscrit dans un contexte de refonte applicative et de migration de systèmes, avec des enjeux forts de qualité, de fiabilité et de sécurisation des livrables. Les projets sont menés dans un environnement outillé et structuré, avec une attention particulière portée à l’automatisation des tests et à l’industrialisation des pratiques de recette. Missions : Concevoir, développer et maintenir des tests automatisés en Python, principalement avec pytest Automatiser des scénarios de non-régression, de validation fonctionnelle et de recette Intervenir sur des périmètres applicatifs en contexte de migration ou de refonte du SI Participer à la définition et à l’amélioration continue de la stratégie de tests Collaborer avec les équipes de développement, de recette et les autres acteurs projet Analyser les résultats d’exécution, identifier les anomalies et en assurer le suivi Contribuer à la qualité, la robustesse et la stabilité des applications livrées Être force de proposition sur l’optimisation de l’automatisation et de la couverture de tests Environnement technique : Langage : Python Framework de tests : pytest Automatisation API : Requests (appréciée) Automatisation IHM : Playwright (appréciée) CI/CD : Jenkins, Nexus Reporting : Allure, Easy BI Base de données : Netezza
Offre d'emploi
Data Architect Senior / Data Analytics Lead - Supply Chain
Clostera
Publiée le
BigQuery
Data analysis
Looker Studio
1 an
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data architect Senior / data Analytics Lead F/H pour renforcer les équipes data d’un grand groupe retail, et accompagner la transformation analytique de ses activités. Ce que vous ferez : Au sein de l’équipe dédiée à la Data Supply Chain , vous interviendrez comme référent data senior pour accompagner les équipes métiers Supply Chain dans l’exploitation de la donnée afin d’optimiser la performance opérationnelle. Vous serez le pivot entre les équipes métier et les équipes data (data scientists, data engineers, data viz, data governance). Vos missions principales : Analyse et exploitation de la donnée Structurer et conduire des analyses data complexes de bout en bout Extraire, traiter et analyser des volumes importants de données Identifier des insights permettant d’améliorer les processus Supply Chain Construction d’outils d’aide à la décision Définir et suivre des KPI métiers Concevoir des reportings et dashboards interactifs Formaliser les résultats et recommandations business Interface métier / équipes data Interagir étroitement avec les équipes Supply Chain Traduire les besoins métiers en problématiques analytiques Collaborer avec les équipes Data Science, Data Engineering et Data Viz Communication et restitution Présenter les analyses et résultats aux équipes métiers Intervenir dans des restitutions auprès du top management Supply Chain Challenger les demandes analytiques et proposer des améliorations
Offre d'emploi
DevOps / Backend Engineer AWS (Node.js / Python) (H/F)
CITECH
Publiée le
AWS Cloud
Node.js
Nosql
6 mois
55k-60k €
450-540 €
75000, Paris, Île-de-France
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) DevOps / Backend Engineer AWS (H/F). 🚀 🏨 Notre client est un groupe international reconnu dans le secteur de l’hôtellerie et des services digitaux. Dans le cadre de l’évolution de ses plateformes de relation client et de fidélité, il renforce ses équipes techniques pour concevoir et développer des solutions innovantes pour ses centres de contact. 🚀 Votre mission Au sein d’une équipe produit composée de développeurs backend, DevOps et experts cloud, vous interviendrez sur : Le développement de services backend en Node.js et/ou Python La conception et l’évolution d’API et micro-services L’intégration de solutions omnicanales pour les centres de contact Le déploiement et l’industrialisation sur AWS La gestion et l’optimisation de bases de données SQL et NoSQL La participation à l’amélioration continue et à la fiabilité des services La collaboration avec les équipes produit et opérations Qualifications 🛠️ Environnement technique Node.js et/ou Python AWS (Lambda, API Gateway, S3, etc.) Bases de données SQL et NoSQL 👉 Une expérience cloud AWS est indispensable. Apprécié : Amazon Connect CI/CD et automatisation Architecture micro-services
Offre d'emploi
Développeur C++ (H/F)
Webnet
Publiée le
Python
55k-65k €
Paris, France
Vos missions : Développements : concevoir et développer les fonctionnalités du logiciels embarqué en respectant les spécifications et en garantissant la cohérence technique, Delivery: assurer avec l’équipe Scrum et le Product Owner la livraison des fonctionnalités attendues, sécuriser les jalons et anticiper les risques techniques, Maintenance & évolutions : participer aux évolutions et à la correction de faits techniques sur les produits existants, en arbitrant et priorisant les solutions techniques lorsque nécessaire et assurer leur mise en œuvre, Amélioration Continue : Contribuer aux réflexions d’architecture logicielle pour améliorer la solution, ainsi que participer aux réflexions d’amélioration continue notamment les problématiques de déploiement. Environnement : • Langages : Développement logiciel en C++, python • Infrastructure : Intégration continue avec Jenkins • Systèmes : Windows IoT 10 / Linux • Outils de développement: Git, Bitbucket, Conan, Jira, Confluence • Méthodologie : Agile Scrum
Offre d'emploi
Ingénieur Analyste Développeur Python - Connaissance Fortran F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Kafka
DevOps
Fortran
Dunkerque, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Développeur Python / Full‑Stack orienté AWS
Tenth Revolution Group
Publiée le
AWS Cloudwatch
Python
3 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Notre client une startup basée à Lyon , accélère la mise en place d’une architecture microservices pour ses produits data/scientifiques. Nous recherchons un(e) Développeur(euse) Python orienté AWS (SQS/SNS) pour renforcer l’équipe et livrer des services robustes et scalables. Votre mission Concevoir, développer et maintenir des microservices Python (API, workers, traitements asynchrones). Mettre en œuvre des patterns event‑driven sur AWS ( SQS/SNS , DLQ, retries/backoff, idempotence, FIFO vs Standard). Contribuer à l’industrialisation : CI/CD , conteneurisation, observabilité (logs/métriques/alertes). Collaborer avec les équipes Produit/Data/Scientifiques pour cadrer les besoins et livrer vite et bien. Partager les bonnes pratiques : tests, revues de code, qualité et sécurité. Stack & environnement Back : Python (FastAPI/Flask/Django), Pydantic, tests (Pytest), typing. AWS : SQS, SNS , (Lambda/ECS/EKS en plus, c’est un plus), CloudWatch. Architecture : Microservices , REST/async, event‑driven . Industrialisation : Docker, GitHub/GitLab CI, monitoring/observabilité. Bonus : notions React/TypeScript (front léger), OpenTelemetry, IaC (CDK/CloudFormation/Terraform).
Offre d'emploi
Data Engineer
VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop
1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
DevOps azure Python IAM sur Paris
EterniTech
Publiée le
Azure DevOps
CI/CD
IAM
3 mois
Paris, France
Nous recherchons pour un de nos clients dans le secteur des assurances un Consultant DevOps Azure – Python / IAM capable d’accompagner des équipes métiers dans l’exploitation, l’optimisation et la montée en compétence autour de leurs modèles (ex : hydrologie, sismique, etc.). Le périmètre comprend des sujets d’infrastructure cloud, de code Python, d’outillage DevOps et de support opérationnel Localisation : Paris Durée : 6 à 12+ mois (mission longue) Secteur : Assurance Missions principales Accompagner les équipes métiers dans le développement, l’optimisation et l’exécution de leurs workflows Python Mettre en place et maintenir des solutions Azure Cloud robustes et automatisées Développer/optimiser des pipelines CI/CD Structurer une approche Infrastructure as Code Conseiller et sécuriser la plateforme (IAM, Identities, Permissions)
Mission freelance
DBA / Ingénieur Data Senior (H/F)
SPI INFORMATIQUE
Publiée le
Git
Linux
PL/SQL
3 mois
310-490 €
Deux-Sèvres, France
Missions principales : Administration et gestion des bases de données Gestion des habilitations et des accès utilisateurs Réalisation de sauvegardes, restaurations et copies de données Gestion des environnements (développement, préproduction, production) Développement et automatisation de scripts Participation aux mises en production Maintien en condition opérationnelle (MCO) Analyse, correction et optimisation des performances Profil recherché Expérience significative en tant que DBA / Ingénieur Data Excellente maîtrise de PostgreSQL Solides compétences en scripting et automatisation Expérience sur des environnements de production Autonomie, rigueur et capacité d’analyse
Mission freelance
Tech Lead- Delivery & Team Leardership (Python/ Django/ React/ Sécurité)
HOXTON PARTNERS
Publiée le
Django
JSON Web Token (JWT)
oauth2
6 mois
Paris, France
Dans le cadre d’un programme stratégique autour d’un Entrepôt de Données à fort enjeu réglementaire, nous recherchons un Tech Lead senior pour encadrer et piloter une équipe de développement intervenant sur plusieurs applicatifs data (portails web, API REST, services d’exploitation de données). La mission consiste à assurer le leadership technique, organiser le travail de l’équipe, sécuriser les livraisons et garantir la qualité des développements dans un contexte exigeant (données sensibles, interopérabilité, sécurité). Le Tech Lead encadrera une équipe de 5 à 6 développeurs et interviendra en coordination avec les équipes produit, data et sécurité. Missions principales: Encadrement et organisation d’une équipe de 5 à 6 développeurs Pilotage technique des développements et arbitrage des choix d’architecture Structuration des processus de delivery et planification des travaux Suivi de l’avancement, des charges, des risques et des dépendances Garantie de la qualité, de la performance et de la robustesse du code Veille au respect des bonnes pratiques (tests, sécurité, DevOps) Appui technique et résolution des problématiques complexes Coordination avec les parties prenantes et participation aux rituels projet Environnement technique: Back-end : Python, Django, API REST Base de données : PostgreSQL Front-end : TypeScript, React, Redux Sécurité : JWT, OAuth2, OIDC Environnement Cloud et pratiques DevOps
Mission freelance
Ingénieur Plateformes Kubernetes / OpenShift
Deodis
Publiée le
Docker
Kubernetes
Openshift
1 an
350-500 €
Annecy, Auvergne-Rhône-Alpes
(Merci de ne pas répondre si vous n'avez pas ces compétences !) Les taches de l’équipe sont les suivantes : · Suivi des architectures proposées par le pôle du client pour s’assurer qu’elles respectent le cahier des charges BPCR et les exigences du client final · Participation aux réunions d’adoption de nouvelles offres avec les mêmes responsabilités que le point précédent. · Participation aux upgrades des plateformes et exercices PSI (HNO). · Gestion capacitaire des plateformes. · Participation à la gestion des incidents sur les plateformes. · Support aux AppOps et aux utilisateurs sur l’utilisation des plateformes et des services proposés par l’équipe. · Création et MCO des images docker de référence utilisées sur les plateformes (Debian, alpine, Ubuntu). Un certain nombre d’images middleware (php, apache, JRE, python, Terradata) sont fournies s’intégrant directement à l’écosystème du client · Développement interne en python (script ou API) permettant de gérer les plateformes, fournir des dashboards, exposer des métriques, afficher le respect des règles de déploiement et configuration. (Technologies : FastApi, Gitlab, Gitlab-ci, python, Hugo, Gitlab Pages) · Création de dashboards Grafana pour suivre la plateforme et apporter de la visibilité aux utilisateurs finaux.
Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)
5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative
1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
Offre d'emploi
Développeur Python Senior [Full remote possible]
Recrut Info
Publiée le
Docker
FastAPI
Flask
50k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Lead Developer Back-end et intégré·e à une équipe de 3 développeurs Back-end, vous participerez activement au développement des nouvelles fonctionnalités du logiciel central de la société et aurez un périmètre de responsabilités assez larges car vous serez garant de vos développements de bout en bout : de la conception technique jusqu'à la mise en production en passant par la phase de tests unitaires et d'intégration ( rédaction de scripts Gherkin, en coordination avec un membre de l'équipe QA) et, plus en amont, vous participerez en coordination avec le PM à la partie "Discovery" et "Story Mapping". Vous serez amené·e à travailler majoritairement sur le langage Python avec Flask et FastAPI et pourriez être amené·e à travailler de temps à autres sur des briques logicielles conçues en Rust. Environnement technique : Python (requis), Flask (souhaité), MongoDB (souhaité), GitLab-CI (souhaité), Docker (requis), MySQL (requis), FastAPI (souhaité), Rust, Gherkin, pytest (souhaité), Celery, Kubernetes, Terraform
Offre d'emploi
Data Engineer (DBT / Snowflake / Airflow / Python)
bdevit
Publiée le
Apache Airflow
AWS Cloud
CI/CD
36 mois
40k-50k €
450-500 €
Issy-les-Moulineaux, Île-de-France
Contexte : Dans un environnement data à forts enjeux de performance, de fiabilité et de conformité, vous intégrerez une équipe data encadrée par un Tech Lead Data. Vous interviendrez sur la conception, l’industrialisation et l’exploitation de pipelines de données au sein d’une plateforme cloud moderne. Missions Principales : En tant que Data Engineer , vous serez en charge de : Concevoir et développer des pipelines de données robustes et scalables (ELT) ; Intégrer les données issues de sources multiples dans Snowflake ; Développer et maintenir les modèles de données analytiques avec DBT (datamarts métiers, tests, documentation) ; Orchestrer les traitements data via Apache Airflow (DAGs, scheduling, dépendances) ; Optimiser les performances, la qualité et les coûts du Data Warehouse ; Industrialiser les flux data (automatisation, CI/CD, monitoring, reprise sur incident) ; Participer à l’amélioration continue de la plateforme data et être force de proposition sur les choix techniques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
764 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois