L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 972 résultats.
Mission freelance
Développeur Devops Azure - Paris
Codezys
Publiée le
Azure
Azure DevOps Services
Docker
6 mois
Paris, France
Nous recherchons un Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe. Compétences requises : Expérience solide avec Azure DevOps et les outils CI/CD. Connaissance approfondie des conteneurs (Docker, Kubernetes). Compétences en scripting (PowerShell, Bash) et expérience avec des langages de programmation (Java, Javascript, Python, C++). Connaissance des outils d'infrastructure as code (Terraform). Compréhension des pratiques de sécurité et de conformité dans le cloud. Excellentes compétences en communication et en travail d'équipe. Qualifications : Diplôme en informatique, en ingénierie ou dans un domaine connexe. Expérience dans un environnement de développement web Java et backend. Certification Azure AZ-900, AZ-104, AZ-204, AZ-400, AZ-500 Objectifs et livrables - Connaissance approfondie d'Azure - CI/CD (Intégration Continue / Déploiement Continu) - Infrastructure as Code (IaC) - Conteneurisation et orchestration - Scripting et automatisation - Gestion de la configuration et surveillance - Sécurité dans le Cloud
Mission freelance
Platform engineer : PYTHON Azure + de 9 ans XP
Codezys
Publiée le
Azure
Azure DevOps Services
Databricks
12 mois
490-550 €
Niort, Nouvelle-Aquitaine
Notre plateforme data science sur Azure est en construction. Le platform engineer a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. Les missions de l'équipe sont : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers Objectifs et livrables La Société devra fournir les prestations suivantes : En tant que platform engineer sur notre plateforme CLAUD.IA. Assurer un rôle de : - concepteur et de développeur de pipelines CI/CD Data et Machine Learning mise en œuvre dans le cycle de vie des produits data science - concepteur et de développeur de pipelines CI/CD de création de ressources Azure, de web applications et d'environnements de travail à destination des data scientists
Offre d'emploi
Data Analyst H/F CDI UNIQUEMENT
Proxiad
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
SQL
Île-de-France, France
Poste de Data Analyst IT au sein des produits Data Usages Retail. Au sein d'une Squad du produit, elle ou il aura en mission - Recueil et analyse des besoins métiers, ainsi que l’évaluation de leur faisabilité (avec les équipes métiers et les banques) - Proposition de solutions et chiffrage des travaux - Rédaction des spécifications fonctionnelles à destination des Data Engineers - Réalisation de tableaux de bord sur Power BI - Suivi des développements et des recettes (planification et coordination des phases de recette avec les métiers et/ou les banques) - Participation à la maintenance du SI (suivi de production et résolution des incidents) - Support d'expertise : fournir un soutien pour des demandes d'expertises ponctuelles.
Mission freelance
Ingénieur DevOps
JobiStart
Publiée le
DevOps
Google Cloud Platform (GCP)
Python
1 an
400-450 €
Île-de-France, France
Administrer et exploiter les environnements cloud (AWS, GCP) et Kubernetes . Mettre en place et optimiser la scalabilité des applications (HPA). Surveiller et améliorer les performances et la disponibilité des services. Assurer la sécurité des infrastructures cloud et des clusters Kubernetes. Concevoir, maintenir et faire évoluer les pipelines CI/CD . Automatiser les déploiements et la gestion de l’infrastructure ( IaC / GitOps ). Garantir le respect des SLA et appliquer les pratiques SRE (monitoring, alerting, gestion d’incidents). Gérer la mise en cache et la diffusion de contenu via CDN . Participer à la conception d’ architectures cloud natives , résilientes et distribuées. Contribuer à l’ amélioration continue des plateformes et des processus DevOps.
Mission freelance
Expert Réseau & Sécurité – Fortinet / Automatisation (H/F)
Freelance.com
Publiée le
Ansible
F5
Fortinet
1 an
450-500 €
Toulouse, Occitanie
Dans le cadre d’un renforcement d’équipe, nous recherchons un Expert Réseau & Sécurité pour une mission longue durée au sein d’un environnement Datacenter critique à forte exigence de disponibilité et de performance. Il s’agit d’un poste orienté infrastructures de sécurité (build, run, design, automatisation) — hors gestion des politiques de sécurité. Vos missions Au sein d’une équipe experte, vous interviendrez sur : Build / Run / Design Expertise N3 sur Firewalls Fortinet (architecture, déploiement, MCO, troubleshooting avancé) Automatisation des infrastructures (playbooks, pipelines, industrialisation) Intégration des infrastructures de sécurité dans un écosystème réseau complexe Contribution aux évolutions d’architecture Maintien en Conditions Opérationnelles Supervision et traitement des incidents/problèmes Gestion des changements et opérations HNO Participation aux astreintes (≈ 1/semaine par trimestre) Permanences hebdomadaires Gouvernance & Amélioration Continue Application et contrôle des standards de sécurité Participation aux audits internes / externes Mise en conformité et suivi des recommandations Rédaction de guides et standards Veille technologique & propositions d’optimisation (performance, qualité, coûts)
Offre d'emploi
DevOps ( Cloud / Kafka / APIGEE)
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Nantes, Pays de la Loire
Contexte de la mission Améliorer l'industrialisation, la sécurisation et la supervision des plateformes d'échanges : KAFKA, APIGEE, Bucket GCP, SFTP. Travailler sur la résilience d'APIGEE/KAFKA/SFTP ainsi que les sujets de migration KAFKA (Move 2Paris) et sur les sujets autour de l'IA avec APIGEE (MCP Server), autre plateforme Google Kafka. Un nouveau périmètre à intégrer dans l'équipe Scripts, code Terraform pour ci/cd, Procédures explicatives Astreintes et Intervention à prevoir Objectifs et livrables lCoud Provider Public (idéalement GCP) Scripting (Shell, Python) Terraform, Git , Argo, Kubernetes, Ansible KAFKA, APIGEE, Bucket GCP, SFTP, Cloudflare
Offre d'emploi
Architecte Cloud Azure Move To Cloud- Expertise Stockage
AVALIANCE
Publiée le
Azure
Cloud
Stockage
1 an
40k-45k €
400-670 €
Nanterre, Île-de-France
Pour accompagner un projet de migration cloud SAP Rise et la fermeture d’un de nos datacenters vers le cloud Azure, nous recherchons un « Architecte Cloud Azure », ayant une expertise sur les technologies Azure et les projets de Move To Cloud. En tant qu’Architecte Cloud Public, vous accompagnerez les équipes projet sur la bonne réalisation d’un projet de migration. • Cloud : Azure (infrastructure & applicatif) • Systèmes : Linux (RedHat, CentOS), Windows • Outils DevOps : Azure DevOps, Ansible, Terraform • Méthodologies : FinOps, DevOps, Infrastructure as Code
Mission freelance
Architecte Data AWS (H/F)
Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset
2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
Mission freelance
Expert Securité Salesforce (H/F) - 92
Mindquest
Publiée le
Salesforce
SOC (Security Operation Center)
3 mois
400-650 €
La Défense, Île-de-France
Pour renforcer la sécurité de ss applications critiques, notre client va déployer le module "Event Monitoring" de Salesforce. Dans ce contexte il recherche un Expert sécurité H/F sur Salesforce pour l'accompagner dans cette mise en place. Mission Dans ce contexte, vos missions seront de: 1/Déploiement et configuration de Salesforce Event Monitoring * Accompagner les experts Salesforce dans l’activation et la configuration du module Salesforce Event Monitoring. * Identifier les types d’événements pertinents (login, accès aux données, API, exports, changements de configuration, etc.). * Paramétrer l’exploitation des événements. * Vérifier la conformité avec les contraintes de sécurité et de conformité. 2/ Analyse des risques et cas d’usage sécurité * Identifier les scénarios de menace spécifiques à Salesforce : compromission de comptes ; abus de privilèges ; accès anormaux aux données ; exfiltration (exports, API, intégrations). * Définir les cas d’usage de détection alignés avec les risques métiers. * Prioriser les événements à surveiller selon leur criticité. 3/ Mise en place des alertes et de la détection * Concevoir et implémenter des alertes de sécurité pertinentes à partir des événements Salesforce. * Définir les seuils, conditions et règles de corrélation. * Limiter les faux positifs et améliorer la qualité de la détection. * Préparer l’intégration des événements/alertes dans le SIEM du SOC/GSOC. 4/ Intégration SOC/GSOC et exploitation opérationnelle * Accompagner l’intégration des logs ou alertes Salesforce dans le SIEM. * Travailler avec le SOC/GSOC pour adapter les règles de détection et définir les niveaux de sévérité. * Contribuer aux playbooks de réponse à incident Salesforce. 5/ Coordination et accompagnement projet * Collaborer étroitement avec la cheffe de projet cyber, les responsables métier, les experts Salesforce et le SOC/CERT. * Animer des ateliers techniques et sécurité. * Contribuer à la montée en compétence des équipes internes sur la sécurité Salesforce.
Mission freelance
Ingénieur Plateforme DevOps / Ops sur Saint Denis
EterniTech
Publiée le
Azure
Azure DevOps
Azure Kubernetes Service (AKS)
1 an
Saint-Denis, Île-de-France
Description du besoin : Secteur du client : Assurance Poste : Ingénieur plateforme devops / ops TT : 2j/s Démarrage : 20/02/2026 jusqu'au 31/12/2026 renouvelable Séniorité : 10 ans (en azure) Anglais conversationnelle Localisation : Saint-Denis Contexte & Objectifs : Je recherche pour l'un de mes clients dans le secteur des assurances un Ingénieur plateforme DevoOps / Ops sur Saint Denis pour le renforcement de l’équipe opérationnelle et pour accompagner les projets de transformation de l’infrastructure. L’objectif principal est la mise en œuvre et le maintien d’une plateforme Terraform et l’automatisation des déploiements sur Azure. La mission combine Run (70%) et Build (30%), dans un environnement critique B2C / marchande sensible à la disponibilité et à la sécurité.
Offre d'emploi
Data Engineer | Databricks | AWS
Hexateam
Publiée le
AWS Cloud
Databricks
Python
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Mission freelance
Directeur de Projet – Infra / Cloud
ESENCA
Publiée le
Conduite du changement
Pilotage
1 an
Lille, Hauts-de-France
⚠️ Recherche exclusivement localisée dans la région Hauts-de-France (Nord). Contexte Dans le cadre d’un programme technologique stratégique, une organisation engagée dans une forte transformation digitale souhaite développer sa propre infrastructure AR Cloud afin de soutenir des expériences digitales innovantes et de renforcer ses capacités technologiques. Le projet vise à concevoir, développer et déployer une infrastructure robuste, scalable et sécurisée, capable de supporter des services avancés et de nouveaux usages digitaux. Objectif de la mission Piloter un programme technologique stratégique autour de la conception, du développement et du déploiement d’une infrastructure AR Cloud , en assurant l’alignement entre la vision technologique, les besoins métiers et les objectifs de transformation digitale. Responsabilités principalesDéfinition de la vision et de la stratégie Définir la vision technique et la stratégie de déploiement de l’infrastructure AR Cloud. Élaborer la roadmap produit et technologique intégrant les phases de recherche, développement, tests et déploiement. Garantir la cohérence entre les choix technologiques et les objectifs stratégiques. Pilotage du programme Piloter l’ensemble du cycle de vie du projet : cadrage, planification, exécution, suivi et déploiement. Coordonner les équipes pluridisciplinaires impliquées dans le programme (architecture, développement, cloud, produit, etc.). Assurer le suivi du planning, du budget et des risques . Gouvernance et coordination Mettre en place les instances de gouvernance et assurer la communication régulière avec les parties prenantes. Garantir la transparence sur l’avancement du programme et la gestion des risques. Supervision technique Superviser la conception et le développement de l’infrastructure AR Cloud en veillant à sa robustesse, sa scalabilité et sa sécurité . Contribuer à la mise en place des pratiques DevOps, d’intégration continue et de déploiement continu . Compétences attenduesCompétences techniques Conduite de projet / pilotage de programmes technologiques – Expert Communication et coordination d’équipes pluridisciplinaires – Expert Compétences fonctionnelles Pilotage de projets complexes à forte composante technologique Gestion de roadmap produit et technologique Gestion des risques, délais et budgets Animation d’équipes techniques et coordination de partenaires Langues Anglais professionnel impératif
Offre d'emploi
Ingénieur Devops & production H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
40k-50k €
Saint-Paul-lès-Durance, Provence-Alpes-Côte d'Azur
L'activité Services en région Provence-Alpes-Côte d'Azur accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Au sein de l'équipe Application Management de notre client, grand acteur dans le domaine de l'énergie, vous contribuez à la fiabilité, l'automatisation et l'amélioration continue des environnements applicatifs. Vos responsabilités : • Conception collaborative : Intervenir en amont des projets en collaboration avec les équipes de développement et d'architecture afin d'intégrer les contraintes d'exploitation dès la phase de conception et garantir la robustesse et la maintenabilité des solutions • Veille technologique : Assurer une veille active et être force de proposition sur les nouvelles technologies et pratiques (Infrastructure as Code IaC, Kubernetes, observabilité, automatisation de la sécurité et outils DevOps) • Automatisation avancée : Concevoir, développer et maintenir des pipelines CI/CD robustes et sécurisés afin d'accélérer et fiabiliser le déploiement des applications sur des environnements complexes (cloud, on-premise et conteneurisés) • Ingénierie de production : Piloter les mises en production et assurer le bon fonctionnement des applications (surveillance, gestion des incidents, optimisation des performances et amélioration de la scalabilité des systèmes) • Support et collaboration : Accompagner les équipes d'exploitation et de développement, faciliter la résolution des incidents et contribuer à la diffusion des bonnes pratiques DevOps au sein de l'organisation • Intégration & qualification : Valider et qualifier les packages applicatifs (.NET, Java, microservices) dans un environnement multi-plateformes avant leur déploiement en production L'environnement technique : Kubernetes, Jenkins, GitLab CI, GitHub Actions, Terraform, Ansible, Puppet, Chef, Terraform, Docker, OpenShift, Cloud (AWS, Azure, GCP), Python, Bash, Java, Prometheus, Grafana, ELK Stack, Git (GitFlow), SonarQube, Maven, Nexus • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 0w58lqbmiz
Offre d'emploi
DevOps SRE Cloud - Expert en Observabilité - Dispositifs santé innovants - Paris (H/F)
EASY PARTNER
Publiée le
Ansible
AWS Cloud
Terraform
73k-80k €
Paris, France
Missions Fiabilité & Observabilité Concevoir et déployer une vraie stratégie d’observabilité (monitoring, alerting, dashboards) Centraliser et industrialiser les métriques (Logs / Metrics / Traces) Définir les SLO / KPI de disponibilité et de performance Passer d’outils dispersés à une vision unifiée Cloud & Déploiement Automatiser et fiabiliser les déploiements cloud Définir et maintenir l’Infrastructure as Code Participer à l’optimisation coûts, performance et scalabilité Définir et tester les politiques de sauvegarde Sécurité & conformité Être le référent sécurité cloud pour l’équipe Gérer les accès, certificats, vulnérabilités Garantir le respect des contraintes liées aux données de santé Transmission & collaboration Travailler en étroite collaboration avec architectes et développeurs Accompagner la montée en compétences du DevOps déjà en poste Contribuer à une vision plus stratégique à terme
Offre d'emploi
Ingénieur Archi DevOps senior Expert UDD
Codezys
Publiée le
Automatisation
Azure
Cloud
24 mois
50k-60k €
450-550 €
Issy-les-Moulineaux, Île-de-France
Localisation : Issy-les-Moulineaux (92) Date limite de réponse : 11/02/2026 Démarrage prévu : 01/03/2026 Durée : 2 ans Type de collaborateurs : Freelances & Salariés Contexte et description du projet : Dans le cadre de la réalisation du plan stratégique « La Poste 2030, engagée pour vous », la Branche Grand Public et Numérique (BGPN) souhaite accompagner l'ensemble des projets, depuis le développement jusqu'à la migration vers le Cloud. La mission est confiée à l’équipe Usine De Développement (UDD), intégrée au sein de la DIWO. Cette équipe, composée de Product Owners, d’Experts et de Développeurs, a pour objectif de fournir des services et des outils permettant aux projets de développer et déployer facilement leurs applications dans le Cloud. Notre approche repose sur la facilitation du modèle DevSecOps et l’adoption de la philosophie « You build it, you run it », tout en assurant un cadre de bonnes pratiques pour accompagner efficacement les projets. Environnement et conditions techniques : Écosystème Linux Helm Kubernetes Docker Git Langages : Python, Bash, sh, etc. Jenkins / GitLab Runner (expérience en pipelines appréciée) Outils complémentaires : Prometheus, Grafana, Stack ELK, OpenShift, Nexus, réseaux (firewall, DNS, proxy, etc.) Objectifs et enjeux de la prestation : Au sein du domaine Yellow Cloud d’ASIM, la mission d’ingénieur Architecte DevOps vise à atteindre les objectifs suivants : Participer au cadrage et à l’instruction de nouveaux outils. Sensibiliser et diffuser les bonnes pratiques des méthodes DevSecOps et GitOps. Automatiser et industrialiser l’installation des nouveaux outils, en adoptant les principes du Everything as Code . Optimiser l’intégration continue, le déploiement continu, ainsi que la supervision et la métrologie. Contribuer à l’amélioration des processus du catalogue de services de Yellow Cloud et assurer leur maintien en conditions opérationnelles ( You build it, you run it ). Garantir la fiabilité des services proposés.
Offre d'emploi
Développeur Back-End .NET Sénior – Expert Paiement / PSP (H/F)
OCSI
Publiée le
.NET
Azure
CI/CD
1 mois
50k-54k €
400-550 €
Paris, France
Contexte & Mission Pour un acteur majeur du retail / e-commerce , nous recherchons un Développeur Back-End .NET sénior , expert des systèmes de paiement (PSP) , pour intervenir au sein d’une Digital Factory à forts enjeux business. Le contexte est celui d’une plateforme e-commerce à fort volume , avec des objectifs clairs d’ industrialisation , de fiabilité transactionnelle , d’ amélioration continue de la qualité et de modernisation des interfaces et services . Vous interviendrez sur un produit en production critique , directement lié au parcours de paiement et au taux de transformation . Responsabilités Concevoir, développer et maintenir des services de paiement robustes, sécurisés et résilients Garantir la fiabilité des flux transactionnels : autorisation, capture, refund, 3DS, tokenisation, middle states, erreurs, retries, idempotence Améliorer en continu la fluidité du parcours de paiement et le taux de succès transactionnel Contribuer fortement à l’ observabilité : suivi des indicateurs transactionnels analyse des comportements en production détection proactive des signaux faibles Assumer la responsabilité du service en production : analyse et traitement des incidents garantie de la stabilité et de la performance Travailler en étroite collaboration avec les équipes : Produit, Sécurité, QA, DevOps, Cloud, Architecture Participer activement à l’ amélioration continue : performance, sécurité, conformité, résilience, refactorings ciblés, réduction de la dette technique S’inscrire dans une approche orientée résultat et valeur business
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4972 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois