Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 755 résultats.
Freelance

Mission freelance
DevSecOps

HAYS France
Publiée le
CrowdStrike
cyberark
Cybersécurité

3 ans
Lille, Hauts-de-France
Dans le cadre d’une transition majeure sur son périmètre de cybersécurité, l’entreprise recherche un consultant expert en sécurité Cloud et en solutions de protection des accès et endpoints . Le consultant interviendra à la fois sur la mise en place d’une nouvelle solution CNAPP couvrant un environnement multi‑cloud (On‑prem / Azure / GCP) et sur le maintien en condition opérationnelle (MCO) des solutions PAM et EDR de l’organisation. Les responsabilités couvrent à la fois des activités BUILD et RUN , incluant la définition de l’architecture, l’intégration DevSecOps, la gestion du cycle de vie des comptes à privilèges et l’optimisation de la détection des menaces sur le parc endpoints.
Freelance
CDD
CDI

Offre d'emploi
INGENIEUR DE DEVELOPPEMENT INFORMATIQUE INDUSTRIELLE

KEONI CONSULTING
Publiée le
Java
Linux
Python

18 mois
20k-60k €
400 €
Saint-Aubin, Île-de-France
MISSIONS Le candidat contribue à la définition des spécifications générales et réalise l’analyse technique et l’étude détaillée du projet applicatif. Il doit réaliser les modules (objets et composants logiciels), adapter et paramétrer les progiciels applicatifs, réaliser le prototypage, élaborer les jeux d’essais pour les tests unitaires d’intégration et effectuer les tests unitaires et, le cas échéant, identifier et traiter les dysfonctionnements. Activités principales : • Savoir rédiger des spécifications fonctionnelles • Savoir définir et décrire une architecture logicielle • Développer de nouvelles fonctionnalités • Corriger des anomalies • Réaliser des tests fonctionnels avec les équipes qui maintiennent les équipements liés • Rédiger des cahiers de recette et des scripts de tests • Rédiger la documentation technique
CDI

Offre d'emploi
Data Engineer | Databricks | AWS

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance

Mission freelance
Cloud Engineer Lead Expert

Codezys
Publiée le
Ansible
Conception
ISO 27001

12 mois
Paris, France
Le service comprendra : A. Gestion de l'Infrastructure de Stockage Conception et déploiement de solutions de stockage en réseau (NAS) et de solutions cloud adaptées aux besoins. Configuration des volumes et des niveaux de stockage en fonction des exigences de performance. Optimisation des performances du stockage par des ajustements et un équilibrage de la charge. Fourniture d'un service 24/7 avec une organisation dédiée aux heures creuses pour une disponibilité continue. Élaboration et partage de documentation technique, comprenant des Dossier de Conception Technique (LLD), des procédures et des processus. B. Protection des Données & Sauvegarde Mise en œuvre de stratégies de sauvegarde et de récupération d'urgence afin de prévenir toute perte de données. Utilisation et gestion des solutions de sauvegarde adaptées aux besoins spécifiques. Développement de stratégies de réplication inter-sites pour garantir la continuité des activités. C. Sécurité et Conformité du Stockage Application de mécanismes de chiffrement, de contrôles d'accès et de permissions basées sur les rôles pour sécuriser les données stockées. Assurance de la conformité aux normes GDPR, HIPAA, ISO 27001 et autres réglementations applicables. Supervision et prévention contre les ransomwares et les accès non autorisés aux systèmes de stockage. Participation à la résolution des non-conformités identifiées lors des audits. D. Planification de la Capacité & Optimisation Analyse de l'utilisation du stockage et anticipation des besoins futurs. Amélioration de l'efficacité grâce à des fonctionnalités telles que la déduplication, la compression, et la gestion à approvisionnement fin (thin provisioning). Mise en place d'automatisations de la gestion du stockage via des scripts (Python, Bash, PowerShell). E. Résolution de Problèmes & Optimisation des Performances Identification et résolution des problèmes de latence, de limitations en IOPS ou de défaillances de disques. Réalisations de mises à jour du firmware, de correctifs et de vérifications de l'état général des systèmes. Collaboration étroite avec les équipes réseau et base de données pour optimiser le flux de données end-to-end. Gestion des incidents, y compris leur résolution et leur coordination avec les interfaces concernées.
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
JIRA
Linux
Python

24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
CDI

Offre d'emploi
2. Expert Sauvegardes / VEEAM Senior

ON-X
Publiée le
Ansible
API
Plan de reprise d'activité (PRA)

45k-65k €
Lyon, Auvergne-Rhône-Alpes
Contexte : Mission auprès de la Direction DIGIT de notre client grand compte pour renforcer l’expertise autour des solutions de sauvegarde VEEAM dans des environnements datacenters et sites de production nucléaire. L’expert sera responsable de la conception, du déploiement, des migrations, de la supervision et de la maintenance prédictive de la plateforme sauvegarde, dans un cadre exigeant avec des livrables de niveau États-majors. Environnement technique / compétences clés : Veeam Backup & Replication, Veeam One Architecture et qualification d’infrastructures de sauvegarde PRA / résilience, tests, plans de montée de version Automatisation (Ansible, Python, API) Rédaction de documents techniques complets et structurés
Freelance

Mission freelance
Automaticien RPA & Tests

Tenth Revolution Group
Publiée le
Appium
Git
Jenkins

1 an
480-530 €
Paris, France
Contexte de la mission Nous recherchons un(e) Automaticien(ne) RPA & Tests confirmé(e) pour renforcer l'équipe Qualité Produit / QA centrale d’un de nos clients grands compte. Il s'agit d'une mission à fort impact consistant à concevoir, maintenir et opérer des robots RPA ainsi que des tests automatisés (Web / Mobile / API) tout en assurant le RUN opérationnel. Vos Missions Cadrage & Conception : Participation et animation des réunions de prise de connaissance, chiffrages et ateliers de conception. Développement RPA : Conception, développement (Robot Framework + Python) et mise en service des robots, accompagnés de la documentation technique associée. RUN & Maintenance : Suivi quotidien de la production (gestion des erreurs/incidents, corrections, petites évolutions) et reporting. Automatisation de Tests : Conception et maintenance des Tests de Non-Régression (TNR) sur les périmètres Web, Mobile et API. Réalisation de Proof of Concept (PoC) selon les besoins. Stack Technique & Outillage RPA & Tests : Robot Framework ( Expertise requise ), Python, Selenium, Appium. API : Postman, SoapUI. CI/CD & Référentiels : Jenkins, Git, Xray (pour la traçabilité). Observabilité & Data : Datadog (analyses et monitoring), SQL (requêtage).
Freelance

Mission freelance
expert Linux intégration

QUALIS ESN
Publiée le
Bash
Linux
Python

6 mois
400-550 €
Paris, France
Dans le cadre de l’automatisation de la procuration de certificats numériques mon client recherche un expert confirmé dans les métiers de l’intégration et de l’architecture des SI, opérationnel rapidement. Profil recherché - Expert confirmé en intégration en environnements Linux - Maîtrise des problématiques de certificats numériques et de leur automatisation - Bonne connaissance des environnements DNS, LDAP et LDAPS, SSH - Connaissance du protocoles ACME V2, et éventuellement des protocoles SCEP et EST - Bonne maîtrise de l’automatisation via scripting (Bash, python, etc.) - Très bonne maîtrise des problématiques des environnements sécurisés (DNS, Firewalls, Wafs, clefs asymétriques, LDAPS) - Maitrise des contextes API modernes (JWT, GraphQL, …) - Solide expertise en sécurité des SI (Connaissance des normes de sécurité ISO 27001, ANSSI, sécurisation des sys-tèmes Linux)) - Autonome, rigoureux, capable de documenter et de transmettre les bonnes pratiques. Objectifs de la mission - Intégration/évolution d’un outil d’automatisation de la procuration des certificats - Intégration de la supervision et de la gestion des logs - Implémentation d'une infrastructure de procuration en haute disponibilité - MOE Évolutions puis passage en production - Accompagnement des équipes techniques à l’utilisation et à l’administration de la solution - Analyse des besoins de sécurité, rédaction des plans d’implémentation, et recommandations adaptées - Accompagnement des démarches d’homologation - Réalisation d’audits de sécurité, de conformité réglementaire et de remédiations - Automatisation des tâches via scripting sur des API (REST, …) - Gestion des incidents et réponse aux incidents. Livrables attendus - Documentation complète de l’architecture implémentée - Scripts Bash, Python, . mis en oeuvre dans le cadre de la gestion automatisée avec leur documentation - Procédures d’exploitation et d’administration des plateformes de procuration - Formation des administrateurs, exploitants et supports associés - Plan de MCO/MCS documenté avec préconisations et axes d’amélioration Environnement technique - Systèmes : Linux (Debian, Ubuntu, RHEL), Windows Server, Active Directory - Virtualisation : VMWare vCenter, ESXi (version 8) - Supervision : Zabbix (serveur, proxy, agents) - Logs & observabilité : ELK (OpenSearch, Logstash, Kibana)-Syslog - Sécurité : Normes ANSSI - LPM - Divers : Git, dépôt APT local, scripting Bash/Python BESOIN DE REALISATION EN HORAIRE NON OUVRE OBSERVATIONS COMPLEMENTAIRES - L Lie -
Freelance
CDI

Offre d'emploi
Expert.e Observabilité

Atlanse
Publiée le
BPM (Business Process Management)
CI/CD
Openshift

3 ans
50k-60k €
400-500 €
Noisiel, Île-de-France
En tant qu’expert.e Observabilité, vous intervenez pour structurer, faire évoluer et refondre les dispositifs de supervision et d’observabilité du SI. Votre rôle Gouvernance et pilotage de l’observabilité · Définir et porter la vision cible de l’observabilité (metrics, logs, traces, alerting, corrélation) · Concevoir et faire évoluer les standards de supervision et d’observabilité (KPIs, SLO, alerting, dashboards) · Garantir l’alignement entre enjeux techniques, applicatifs et métiers, avec une approche bout en bout du SI · Structurer les pratiques dans une logique SRE / DevOps / industrialisation Refonte de la supervision et transformation des outils · Contribuer au projet de refonte de la supervision basé sur Zabbix, Grafana, Prometheus et OpenShift · Définir les architectures de collecte, de stockage et de visualisation de la télémétrie · Assurer la cohabitation puis la convergence entre les dispositifs existants et la cible Exploitation et support niveau 3 · Administrer, configurer et optimiser les plateformes d’observabilité · Assurer un support expert N3, notamment sur les incidents complexes · Analyser les causes racines et contribuer à la réduction du bruit et des alertes non pertinentes Automatisation, industrialisation et collaboration · Développer des scripts et mécanismes d’automatisation (déploiement, collecte, alerting, dashboards) · Intégrer l’observabilité dans les chaînes CI/CD et les environnements OpenShift · Rédiger la documentation associée
Freelance

Mission freelance
Ingénieur Data senior

JobiStart
Publiée le
AWS Cloud
Python

1 an
400-550 €
Île-de-France, France
Intervenir sur des programmes stratégiques Data et Intelligence Artificielle au sein de la DSI, sur un socle Cloud orienté Data Intelligence Apporter une expertise Data et Machine Learning Engineering pour concevoir, déployer et exploiter des solutions analytiques et IA à l’échelle Mettre en place des chaînes complètes de gestion de la donnée, depuis l’ingestion jusqu’à l’exposition des usages data et IA Développer et automatiser des flux de données distribués en s’appuyant sur les services Cloud AWS Construire et maintenir des pipelines robustes intégrant orchestration, traitement et stockage des données Participer à la structuration et à l’industrialisation des environnements MLOps et des cycles de vie des modèles ML et IA générative Déployer, superviser et automatiser les plateformes de Machine Learning (SageMaker) et les mécanismes de monitoring associés Réaliser des traitements analytiques, transformations de données et optimisations sur des plateformes de type data warehouse cloud Mettre en œuvre des processus CI/CD et des déploiements automatisés via des outils DevOps Développer des briques techniques Data/IA exploitables par les équipes internes (pipelines, services, composants applicatifs) Participer aux phases de conception, d’architecture, de tests, d’intégration et de mise en production des solutions Alimenter et maintenir les environnements nécessaires aux produits data, analytiques et applicatifs Accompagner les équipes Data Science et techniques dans la clarification des besoins Data/IA Faciliter l’industrialisation et la mise à disposition rapide des cas d’usage Produire la documentation technique et contribuer au respect des standards d’architecture, sécurité et gouvernance
Freelance
CDI

Offre d'emploi
Chef de Projet AMOA SENIOR

Codezys
Publiée le
Git
Powerpoint
Python

6 mois
40k-50 160 €
450-520 €
Lyon, Auvergne-Rhône-Alpes
Expérience : 5 ans minimum TJM vente max : 550 € Localisation : Lyon Deadline réponse : 03/02/2026 Durée : 6 mois minimum Contexte : Au sein d'une équipe dédiée à la gestion des systèmes d'information d'une grande entreprise. L'équipe est responsable de l'ensemble des chaînes communicantes, notamment : CCMA : chaîne communicante pour le marché de masse (exemple : équipements connectés) CCMA : chaîne communicante pour le marché d’affaires (exemple : équipements pour les industriels) IOT : ensemble de capteurs communicants fournissant des informations clés sur le réseau de distribution (exemple : capteur de niveau des réservoirs dans des équipements hospitaliers) I3C : postes sources Le système d'information permet de superviser et de monitorer la chaîne communicante via quatre fonctionnalités principales : Monitoring de la chaîne communicante Distribution à distance des logiciels et paramètres Gestion des dysfonctionnements du parc Gestion du référentiel Une entité de l'entreprise spécialisée dans la gestion des actifs et la maintenance étudie et développe des produits data innovants sur des sujets tels que la maintenance prédictive, la mobilité électrique, et la gestion des charges sur le réseau. La prestation aura une durée ferme de six (6) mois à compter de la date de commande, avec possibilité de reconduction par périodes optionnelles de six (6) mois, dans la limite de la durée du contrat.
Freelance
CDI

Offre d'emploi
Expert IT Summit (Finance de marché)

Amontech
Publiée le
C#
C/C++
Java

1 an
45k-55k €
450-550 €
Île-de-France, France
🎯 Contexte Nous recherchons un Expert IT Summit pour intervenir dans un environnement Finance de marchés. Vous intégrerez le pôle Booking / Valuation d’une équipe Summit Front Office, avec un rôle clé de support IT niveau 3. L’objectif principal est de répondre aux besoins métier liés à l’intégration et à l’évolution de Summit dans l’écosystème client. 🛠 Compétences recherchéesProgiciel & Environnement Summit 6.2 Grid computing (Datasynapse) Oracle Linux MQ Series / JMS Active MQ Langages C / C++ C# Python Java SQL ksh 📌 Périmètre fonctionnel Front Office / Middle Office Produits taux, dérivés de taux, crédit Booking Lifecycle des trades P&L Market Data STP
Freelance

Mission freelance
SENIOR DATA AND AI ENGINEER

CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake

1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission 􋰄 Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). 􋰄 Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. 􋰄 Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. 􋰄 Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). 􋰄 Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. 􋰄 Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
CDI

Offre d'emploi
Ingénieur DevOps – Nantes (H/F)

AUBAY
Publiée le
DevOps
Java
Python

40k-50k €
44000, Nantes, Pays de la Loire
Tu veux rejoindre un projet d’envergure ? Tu aimes travailler au croisement du développement, du cloud et de la production ? Aubay Solutec Grand Ouest cherche un(e) Ingénieur DevOps / Intégration Applicative pour accompagner la transformation digitale d’un client grand compte. Notre ADN : 🔹 Expertise 🔹 Innovation 🔹 Collaboration 🔹 Engagement 🔹 Éthique 🎯 Ta mission : garantir la fiabilité, la performance et l’exploitabilité de solutions critiques. Intégré(e) à une squad Agile, tu joueras un rôle clé sur l’ensemble du cycle de vie applicatif, de la conception au run, en intervenant sur des infrastructures Cloud Native. Tes responsabilités : Prendre en charge des projets de bout en bout : études, conception, automatisation, déploiement et suivi post-mise en production. Concevoir, déployer et maintenir des architectures Cloud (AWS / GCP selon les projets). Mettre en place, fiabiliser et automatiser les environnements via Terraform , Ansible et les outils IaC Cloud Natif. Définir et industrialiser les pipelines CI/CD (GitLab CI/CD, Jenkins, Digital AI, Nexus/Artifactory). Assurer l’intégration et la gestion des images Docker au sein des écosystèmes Kubernetes / Helm . Garantir la stabilité, la résilience et la sécurité des produits en production ; contribuer activement à la résolution d’incidents. Déployer et améliorer les outils de supervision / monitoring : Dynatrace, ServiceNow, ELK, SonarQube . Rédiger une documentation claire et fiable pour les équipes métiers et les équipes d’exploitation. Participer à la montée en compétences des squads métier (présentations, démonstrations, bonnes pratiques). Contribuer à l’amélioration continue des pratiques DevOps (automatisation, observabilité, fiabilité, tooling). 🧰 Ton environnement technique · Docker, Kubernetes (GKE / Cloud), Helm · Terraform, Ansible, GitLab Ops · GitLab CI/CD, Jenkins, Digital AI, Artifactory, Nexus, SonarQube · AWS, GCP (selon projets) · Python, Shell · Spark3 / Hadoop, pipelines IA / LLM (selon contexte) · Agile (Scrum / SAFe)
Freelance

Mission freelance
Développeur C++ (Finance)

AVALIANCE
Publiée le
.NET
C#
C/C++

3 ans
Paris, France
Domaine Deal Capture Credit La fonction principale du domaine Deal Capture Credit est de supporter, maintenir et faire évoluer une application appelée STAR . STAR est un système de traitement des transactions (trade processing) chargé de la capture des opérations sur les dérivés de taux d’intérêt (IRD) , les futures et les obligations , ainsi que de l’acheminement des transactions du Front Office vers le Middle Office , puis le Back Office . STAR constitue le socle central (backbone) de la suite IT de traitement des transactions. Chiffres clés : Plus de 2 000 utilisateurs réguliers Plus de 1,5 million de transactions capturées par mois Utilisateurs répartis dans 42 pays Le développement logiciel est réalisé à Londres et Mumbai . L’équipe est composée de 23 développeurs et de 14 analystes métiers , répartis sur les deux sites Activités principales du domaine : Développement de nouvelles évolutions à la demande des métiers (Front, Middle ou Back Office). Ces évolutions peuvent concerner : de nouveaux produits financiers, de nouveaux modes de booking, l’amélioration des fonctionnalités existantes, la prise en compte des recommandations d’audit, les exigences réglementaires. Maintenance applicative : correction d’anomalies, support technique en journée, support de niveau 3 en horaires nocturnes.
755 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous