L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 934 résultats.
Mission freelance
Développeur Python/Accessibilité RGAA-Orléans
Signe +
Publiée le
CSS
HTML
Javascript
6 mois
390 €
Orléans, Centre-Val de Loire
Je recherche un profil spécialisé pour intégrer une équipe dédiée à l’accessibilité, dont la mission est d’accompagner des utilisateurs en situation de handicap (sourds, malvoyants, personnes présentant une déficience physique ou visuelle). Le candidat doit posséder une solide expertise en développement, tout en ayant une réelle sensibilité au support utilisateur, en particulier auprès de personnes en situation de handicap. 🔺Il faut que le candidat habite la région d'Orleans et des déplacements à Nantes sont à prévoir car les utilisateurs sont a Nantes. 🔺Le client n’acceptera que des profils développeurs ayant une véritable expérience en accessibilité ou un accompagnement d’utilisateurs en situation de handicap. 🔺Le candidat doit s’exprimer de manière irréprochable et présenter un excellent savoir‑être.
Offre d'emploi
Ingénieur Marchine Learning (ML)
KEONI CONSULTING
Publiée le
Gitlab
Python
SQL
18 mois
20k-60k €
100-500 €
Paris, France
Contexte La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateur et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la mission consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience dans un environnement data / machine learning Expériences dans le déploiement en production de modèles de machine learning Expériences sur la Google Cloud Platform Expériences avec des technologies de type Flask ou FastAPI Maîtrise des langages Python et SQL Solides connaissances en data : structures de données, code, architecture Connaissances de l’infrastructure-as-code (Terraform) Connaissances du Machine Learning, des concepts liés à l’IA Connaissances des technologies liées à l’IA : tensorflow, sklearn etc Connaissances de Gitlab et Gitlab CI/CD Capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile : de préférence Scrum ou Kanban
Offre d'emploi
Tech Lead Data (H/F)
AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Mission freelance
Offre d’emploi – Développeur Confirmé Python / React – Bordeaux
Tenth Revolution Group
Publiée le
Python
React
12 mois
350-540 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Développeur Confirmé Python / React pour renforcer l’équipe tech d’une entreprise innovante basée à Bordeaux . Vous interviendrez sur des projets web à forte valeur ajoutée, avec un fort niveau d’autonomie et de responsabilité technique. 🎯 Missions Développer et maintenir des applications web en Python (FastAPI, Django ou Flask) . Concevoir et améliorer des interfaces frontend modernes en React . Participer aux choix techniques et à l’architecture applicative. Écrire du code propre, testé, maintenable (tests unitaires, CI/CD). Optimiser les performances backend et frontend. Collaborer avec les équipes produit, design et data. Contribuer aux bonnes pratiques : revues de code, documentation, veille. 🧰 Compétences requises Python : maîtrise confirmée, API REST, bonnes pratiques. React : composants fonctionnels, hooks, état global (Redux/Zustand). Expérience avec une stack moderne : Docker, Git, CI/CD. Bonne compréhension des architectures cloud (AWS, GCP ou Azure). Capacité à analyser des problèmes complexes et proposer des solutions robustes. Connaissance SQL / NoSQL appréciée. ⭐ Profil recherché 3 à 5 ans d’expérience en développement web. Autonomie, rigueur et sens du produit. Culture de la qualité et de la performance. Capacité à travailler dans un environnement agile (Scrum/Kanban).
Mission freelance
[FBO] Data Scientist/IA (GenIA) - Nantes - 1319
ISUPPLIER
Publiée le
9 mois
300-370 €
Nantes, Pays de la Loire
Contexte de la mission Compétences et expériences demandées : -Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. -Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. -Connaissance de SQL -Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit -Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch -Pratiquer une veille active sur vos domaines de compétence. -Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Activité principales attendues : Machine Learning / Deep Learning - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. - Création et production de modèles d'apprentissage automatique industrialisables Traitement de données à grande échelle pour la création de jeux de données d'entraînement - Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles - Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen - Prompt engineering - Bench via des solutions d'évaluation des modèles d'IA Gen - Optimisation des solutions (paramétrage des modèles)
Offre d'emploi
Développeur Python / Ansible
VISIAN
Publiée le
Ansible
API
Python
1 an
40k-45k €
400-550 €
Île-de-France, France
Contexte de la mission Au sein d’un département Infrastructure, vous intégrerez une équipe dédiée à l’automatisation des services sur une plateforme applicative de production. L’objectif est de concevoir, développer et maintenir des services innovants dans un environnement cloud privé, avec une forte orientation automatisation. Missions principales Développer de nouveaux services en Python Concevoir et exposer des API Automatiser les déploiements via Ansible et pipelines CI/CD Participer à l’industrialisation des processus Déployer et maintenir des applications dans un environnement cloud privé Travailler sur des solutions conteneurisées (type OpenShift) Accompagner les équipes techniques dans l’adoption des nouveaux services Collaborer avec différentes équipes infrastructures et applicatives Environnement technique Langages : Python Automatisation : Ansible CI/CD : pipelines d’intégration et déploiement continu Systèmes : Linux Conteneurisation : Docker, Kubernetes, OpenShift Frameworks / outils : FastAPI, Jinja2
Offre d'emploi
Data Scientist
Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks
3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
Mission freelance
101057/Architecte des moteurs et de l'IA - Python,Node.js,React
WorldWide People
Publiée le
Node.js
Python
React
9 mois
400-480 €
Bezons, Île-de-France
Architecte des moteurs et de l'IA - Python,Node.js,React Concevoir, structurer et faire évoluer nos moteurs logiciels et nos capacités d’IA. Concevoir, structurer et faire évoluer les moteurs applicatifs en Node et Python. Définir des architectures robustes, scalables et maintenables en environnement Kubernetes (GKE/EKS). Garantir des performances optimales pour des traitements intensifs (données, calculs, agents AI). Participation active au développement en React (front), Node & Python (back). Mise en place de microservices performants, adaptés aux contraintes SaaS et data-heavy. Optimisation et automatisation des déploiements via CI/CD (GitHub Actions ou équivalent). Concevoir et déployer des agents AI légers (AWS Lambda, microservices AI autonomes). Intégrer de manière cohérente les modèles LLM, embeddings, pipelines IA, outils vectoriels. Superviser la qualité, la robustesse et la fiabilité des agents dans leur exécution. Définir les pipelines de préparation des données, entraînement, validation et mise en production. Intégrer des outils MLOps (MLflow, Vertex AI, SageMaker ou équivalent). Veiller à la reproductibilité, la traçabilité et la gouvernance des modèles. Travailler en étroite collaboration avec les équipes Data, Produit, Impact scientifique et DevOps. Être l’interlocuteur technique clé pour les sujets IA, moteurs et calculs back-end. Faciliter la communication pour garantir la cohérence architecture/produit/IA. Rester à jour sur les innovations IA, agent frameworks, architectures serverless et MLOps. Être force de proposition pour optimiser les moteurs de calcul, les workflows AI et l’usage du cloud. Participer à la définition d’une feuille de route technique moderne et innovante.
Offre premium
Offre d'emploi
Dev Etrading Warrant C++/finance de marché
Digistrat consulting
Publiée le
C/C++
Multithreading
Python
3 ans
40k-70k €
400-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte: La mission consiste au support dans le cadre des activités de: Participation, en tant que développement Front Office, à l'amélioration des automates de contribution sur warrants, certificats et produits exotiques. 💡 Principales Missions: • En salle de marché, collecte et analyse des besoins des traders • Développement de nouvelles fonctionnalités et la maintenance de la plateforme dans un cadre agile. • Assurance du suivi de la mise en production des nouvelles fonctionnalités. • Accompagnement de l'équipe Trading Support pour l’aider à maintenir la stabilité de la plateforme, améliorer ses performances et réduire le risque opérationnel. 💡 Environnement technique : C++ 17, Python, Git, Jenkins, Oracle, Linux Red Hat, NATS, Java
Offre d'emploi
Expert en développement Python et FastAPI
AVA2I
Publiée le
Artifactory
Bitbucket
FastAPI
1 an
Île-de-France, France
Vos missions principales Développement et APIs Concevoir, développer et déployer des APIs de gestion d’infrastructures Participer à la migration vers des architectures API Garantir la stabilité, la performance et la sécurité des services Architecture du SI Définir et concevoir l’architecture cible du SI Définir les standards, normes et principes d’architecture Produire des cartographies fonctionnelles, applicatives, techniques et data Urbanisation et cohérence du SI Garantir la cohérence entre applications, infrastructures et données Identifier : redondances obsolescences opportunités de mutualisation Proposer des roadmaps d’évolution du SI Accompagnement des projets Participer aux phases de cadrage et conception Valider les choix techniques et fonctionnels Conseiller : chefs de projet développeurs équipes métiers
Mission freelance
DATA ANALYST - Expert (>10 ans) F/H
SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy
24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Mission freelance
Ingénieur en Machine Learning
Sapiens Group
Publiée le
Flask
Gitlab
Google Cloud Platform (GCP)
12 mois
600-650 €
Île-de-France, France
Missions principales En collaboration étroite avec les membres de l’équipe, vous serez en charge de : Développement & Industrialisation Concevoir, développer et maintenir des pipelines de machine learning robustes et scalables Industrialiser les modèles de machine learning en collaboration avec les Data Scientists Déployer des modèles en production via des API REST Data & Infrastructure Structurer et organiser le stockage des données Mettre en place des infrastructures scalables et performantes Garantir la stabilité, la sécurité et l’évolutivité des environnements MLOps & Qualité Construire et maintenir les workflows CI/CD Mettre en place des outils de monitoring et de suivi de performance Participer aux phases de test, notamment A/B testing en production Collaboration & Méthodologie Travailler en étroite collaboration avec les équipes Data et techniques Participer aux rituels Agile (Scrum ou Kanban) Contribuer à la documentation technique Assurer une veille technologique active Objectifs de la mission Développer un premier cas d’usage de personnalisation Déployer ce cas d’usage en production Mesurer et optimiser les performances via des tests A/B Mettre en place un monitoring fiable des modèles Profil recherché Expérience Minimum 5 ans d’expérience en data / machine learning Expérience significative en mise en production de modèles ML Expérience sur Google Cloud Platform Compétences techniques Excellente maîtrise de Python et SQL Solides connaissances en data (structures, architecture, modélisation) Expérience avec Flask ou FastAPI Bonne maîtrise des concepts de machine learning et d’intelligence artificielle Expérience avec des frameworks ML (TensorFlow, scikit-learn…) Connaissances en Infrastructure-as-Code (Terraform) Maîtrise de GitLab et des pipelines CI/CD Environnement technique Cloud : Google Cloud Platform (Vertex AI, BigQuery, Cloud Run…) Langages : Python, SQL Orchestration : Airflow API : Flask / FastAPI CI/CD : GitLab CI/CD Infrastructure : Terraform
Mission freelance
Développeur open source H/F
Insitoo Freelances
Publiée le
C/C++
Python
2 ans
500-530 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur open source H/F à Paris, France. Contexte : Dans le cadre d’un projet innovant de transformation digitale, nous recherchons un Développeur IA Senior pour concevoir et déployer une solution intelligente dédiée au traitement automatisé de données issues de systèmes industriels . L’objectif : développer une nouvelle génération d’outils permettant d’exploiter efficacement des mesures terrain, détecter des anomalies et contribuer à des stratégies de maintenance prédictive . Vous interviendrez sur l’ensemble du cycle de développement d’une solution IA, avec notamment : Conception d’une architecture de traitement de données autonome Développement d’algorithmes permettant : L’identification automatique de signaux spécifiques dans des séries temporelles La détection d’anomalies et leur qualification Mise en place de pipelines de traitement de données intégrant des modèles d’IA Analyse et corrélation de données multiples pour identifier des signaux faibles Participation à la construction de datasets et à leur exploitation Définition et suivi des indicateurs de performance (KPI) Intégration dans un environnement Big Data Industrialisation de la solution (performance, scalabilité, maintenance) Rédaction de la documentation technique et suivi projet 🛠️ Environnement technique Langages : Python, C++ IA / Data : Machine Learning, traitement de signaux, analyse de données Architecture : pipelines data, edge computing, systèmes distribués Méthodologies : Agile 👤 Profil recherché Expérience confirmée en tant que développeur IA / data engineer senior Solide expérience en développement de solutions IA en environnement industriel Bonne maîtrise des problématiques de traitement de données complexes Capacité à intégrer des solutions dans un existant technique contraint Connaissances en : systèmes critiques cybersécurité optimisation des ressources ✅ Les + du poste Projet à fort impact technologique et opérationnel Environnement mêlant IA, industrie et innovation Participation à la mise en place d’une solution scalable et auto-apprenante
Mission freelance
Développeur / Lead IA Générative
HAYS France
Publiée le
IA Générative
LangChain
Python
3 ans
100-420 £GB
Lille, Hauts-de-France
Objectifs de la mission & Livrables attendus🔧 Objectifs Concevoir, développer et optimiser un agent IA génératif dédié au shopping. Intégrer des frameworks agentiques modernes (LangChain, LangGraph…). Structurer et exploiter une base vectorielle pour supporter le RAG. Garantir une mise en production robuste et scalable du système. Superviser la cohérence, la qualité et les performances de l’agent via des outils dédiés (Ragas, MCP, métriques internes…). Accompagner les équipes internes (data, digital, produit) sur les aspects techniques et méthodologiques. 📦 Livrables Audit technique complet (architecture existante, données, risques, opportunités). Recommandations stratégiques et opérationnelles pour le choix des modèles, frameworks et architecture cible. Développement informatique / Data Science : Développement du chatbot agentique Pipelines de données Mise en place du RAG Intégration dans les systèmes Boulanger Documentation technique (architecture, APIs, workflows agentiques, MLOps). Évaluation & tests (via Ragas, MCP ou outils équivalents). Support au déploiement en production et au monitoring post-lancement.
Offre d'emploi
Product Owner Data / IA
VISIAN
Publiée le
Agile Scrum
Microsoft Power BI
Product management
1 an
Paris, France
Contexte : Pilotage de produits analytics destinés aux équipes commerciales, avec un fort enjeu de valeur métier, d’adoption et de fiabilité des données. Activités principales • Définir la vision produit analytics et construire la roadmap. • Recueillir, cadrer et challenger les besoins métiers. • Prioriser le backlog et arbitrer selon la valeur business. • Rédiger les user stories data et critères d’acceptation. • Piloter le delivery des équipes analytics / BI. • Animer les rituels agiles (refinement, planning, reviews). • Suivre l’adoption, l’usage et l’impact business des produits data. • Garantir la qualité, la cohérence et la documentation des indicateurs. • Accompagner les équipes métiers dans l’utilisation des solutions analytics.
Mission freelance
POT9097 - Un Développeur python expert en Île-de-France
Almatek
Publiée le
Python
6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, Un Développeur python expert en Île-de-France. Profil: Concepteur Développeur - Python A partir de 7 ans d’expérience, anglais bon niveau Profil développeur expert python (avec connaissance en IA) avec une SOLIDE expérience en développement, migration et évolutions d’applications reposant sur Python dans environnement IBM Cloud. Ancienne mission dans un groupe bancaire serait appréciée. Almatek recherche pour l'un de ses clients, Un Développeur python expert en Île-de-France. Profil: Concepteur Développeur - Python A partir de 7 ans d’expérience, anglais bon niveau Profil développeur expert python (avec connaissance en IA) avec une SOLIDE expérience en développement, migration et évolutions d’applications reposant sur Python dans environnement IBM Cloud. Ancienne mission dans un groupe bancaire serait appréciée.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
934 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois