Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 280 résultats.
Freelance

Mission freelance
Machine Learning Engineer

Publiée le
Azure
DevOps
Kubernetes

3 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Machine Learning Engineer expérimenté pour une mission stratégique chez un client grand compte. Stack et compétences clés : Python 3.12 (expertise attendue) Kubernetes / Helm / Docker (maîtrise technique au-delà de l'utilisation) Azure SDK FastAPI GitLab (CI/CD, évolution de pipelines) OpenAPI, multithreading, ajout de routes pour UI gérant l’orchestration des déploiements jusqu’en UAT Tests unitaires obligatoires, monitoring des performances Organisation Agile en Squads et Chapters (partage des bonnes pratiques) Matrice RACI déjà en place, capacité à la faire évoluer Jenkins pour la production (géré par les équipes Ops) Certification KAD : un plus fortement apprécié, possibilité de la passer pendant la mission Contexte métier : Projet dans le secteur assurance autour de la modélisation de données, extraction d’informations depuis des contrats, comparaison avec des référentiels, vérification de cohérence, automatisation, recherche sémantique
Freelance
CDI

Offre d'emploi
Ingénieur Devops / Nouvel IOPs - APS Realestate

Publiée le
CI/CD
Jenkins

1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste : Ingénieur DevOps / Nouvel IOPs Le bénéficiaire souhaite une prestation technique pour installation/migration/support/automatisation sur les applications au sein du Technology Office d'un grand groupe bancaire. Missions principales : Phase d'étude : Accompagnement et orientation des différents intervenants (CDP, architecture et sécurité) en apportant son expertise sur les technologies utilisées Comprendre les résultats de scan de sécurité sur les diverses vulnérabilités Contribuer/Comprendre un schéma d'architecture afin d'être force de proposition Compétences requises en sécurité : scan Xray, Sysdig, Tanium Connaissances techniques : Nginx, Drupal PHP, Apache Tomcat, Java Phase d'implémentation : Contribution à la mise en œuvre du projet technique sur les environnements de production et non-production Réalisation des tests et validation des environnements avant transmission aux Études Mise en place de Pipeline CI/CD via les toolchains du groupe Gestion de plusieurs projets simultanément en mode Agile Gestion des espaces DevOps incluant : CI/CD GitLabCI Digital AI Jenkins ArgoCD IBM Cloud (PaaS/IaaS) Kubernetes (pods, déploiements, cronjob, etc.) Openshift CHART HELM Docker HVAULT (gestion des secrets, certificats, authentification) Notions de bases de données en mode as-a-service (PostgreSQL, Oracle, SQL Server et MongoDB) Phase de Mise en Production : Mise en place de la supervision et l'ordonnancement de l'application : Autosys, CFT, Python, Shell, Powershell Participation à la rédaction des livrables de mise en service (Dossier installation/Dossier Exploitation)
Freelance

Mission freelance
Data Engineer Databricks

Publiée le
Apache Airflow
Azure DevOps
CI/CD

6 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
En tant que Data Engineer Databricks, nous vous proposons d’intégrer une équipe d’ingénieurs expérimentés et multi-compétentes. Au sein de nos clients issus de différents secteurs d'activité (Industrie, Services, Transport, Logistique, Banque, Assurances, Énergie), vous jouez un rôle clé dans la migration des données et des tâches de l'environnement Cloudera vers Databricks. Vous êtes également chargé d'automatiser le déploiement des jobs via le CI/CD. Pour réussir ces différents challenges, nous vous proposerons des actions de formation, des parrainages, des certifications sur les outils concernés et un dispositif d’évaluation personnel régulier.
Freelance

Mission freelance
Ingénieur IA – Développement d’Agents et Intégration GCP

Publiée le
Google Cloud Platform (GCP)

6 mois
570 €
Paris, France
Télétravail partiel
Contexte Le département des Opérations IT & Finance de L’Oréal recherche un Ingénieur IA expérimenté pour concevoir, implémenter et industrialiser des agents d’intelligence artificielle et leurs interactions dans un environnement Google Cloud Platform (GCP) . L’objectif : passer de preuves de concepts (PoC) à des solutions fiables, sécurisées et maintenables à grande échelle. Missions principales Implémenter des agents IA et des services Python intégrés dans l’écosystème GCP. Concevoir et déployer des APIs et des outils MCP (FastAPI/async), conteneurisés et déployés sur Cloud Run . Développer des serveurs MCP pour exposer de manière sécurisée les outils et données internes aux agents. Concevoir et implémenter la communication agent à agent (basée sur événements ou RPC). Définir les schémas de messages , le routage , la gestion d’état et les mécanismes de retry . Intégrer les solutions avec Vertex AI (ou équivalent) pour les appels de modèles, la sécurité et l’évaluation des résultats. Mettre en place une chaîne CI/CD complète (Cloud Build, GitHub Actions) et une infrastructure as code (Terraform). Garantir la qualité logicielle via des tests unitaires, d’intégration et de contrat. Mettre en œuvre des mécanismes d’ observabilité (Cloud Logging, OpenTelemetry) et de sécurité (DLP, IAM, secrets). Rédiger la documentation technique et opérationnelle et assurer la passation aux équipes internes . Accompagner les équipes métiers dans l’adoption de cas d’usage en IA générative . Compétences techniques requises Excellente maîtrise du langage Python et des modèles asynchrones (async/await) . Expérience confirmée sur GCP : Pub/Sub, IAM, Cloud Run / GKE, Secret Manager, Cloud Logging & Monitoring. Solides bases en DevOps : CI/CD (Cloud Build, GitHub Actions) et Terraform . Connaissance pratique des frameworks d’agents IA (LangGraph, ADK, Autogen ou équivalents). Expérience d’intégration avec des LLM (Large Language Models). Culture de la sécurité , de la qualité logicielle et de la documentation . Profil recherché Ingénieur expérimenté en développement Python et GCP , orienté industrialisation IA . Capacité à travailler en environnement cloud distribué et à transformer des PoC en solutions robustes. Autonomie, rigueur, esprit d’équipe et sens du partage technique.
Freelance
CDI

Offre d'emploi
Développeur·se APIs – Python / FastAPI

Publiée le
Python

3 ans
40k-70k €
400-550 €
Île-de-France, France
Vos missions Concevoir, développer et maintenir des APIs robustes et sécurisées pour l’accès aux services internes (Java, Maven, RAML, Anypoint, Python, FastAPI) Définir de nouvelles APIs en collaboration avec les équipes métiers et architecture Créer et exécuter des tests unitaires et d’intégration pour chaque API Déployer les APIs sur différents environnements Participer à la migration vers de nouvelles solutions cibles API Intégrer des outils DevOps (XLR, Jenkins, Bitbucket, Artifactory) pour optimiser les déploiements Contribuer à l’amélioration continue des pratiques de développement afin d’assurer stabilité et disponibilité des services
CDI

Offre d'emploi
Lead Dev agent IA

Publiée le
Google Cloud Platform (GCP)
Java
Python

6 mois
52k-55k €
400-600 €
Hauts-de-Seine, France
Télétravail partiel
Dans le cadre de leur programme notre client recherche une prestation de lead développement pour contribuer au développement du programme en mettant à disposition de nouveaux types d’agents IA venant enrichir les capacités de la plateforme. Il s’agira de développer des solutions innovantes telles que les agents de type Retrieval-Augmented Generation (RAG). En capitalisant sur GCP et les dernières évolutions de GenAI. Cette dernière permet aux utilisateurs métiers de créer, d’utiliser et de personnaliser des assistants et des workflows intégrant l'IA générative, afin d'améliorer les processus et systèmes d'information (SI) existants. Le développement est réalisé en Python et Java, les agents IA dans une architecture micro-services et sont à développer, à intégrer dans l’écosystème, à maintenir et à faire évoluer. Missions : - Garantir la stabilité et scalabilité de la plateforme par la mise en place/optimisation des technologies permettant la scalabilité et monitoring en collaboration avec les DevOps - Garantir la remise en marche du SI dans les délais exigés par les projets - Communiquer sur l’état des services et le plan de remise en marche si le cas se présente - Challenger et contribuer à la vision du produit, piloter la conception, le développement, les opérations et garantir le SLA - Collaborer avec les Solution Architect pour l’étude des évolutions demandées par le produit - Identifier et prioriser les services offerts pour répondre aux besoins du client et de la stratégie du groupe - Assurer une veille technologique pour garantir la pérennité des solutions utilisées
Freelance

Mission freelance
Développeur / Data Engineer Observabilité

Publiée le
Python

6 mois
540-630 €
Levallois-Perret, Île-de-France
Télétravail partiel
Contexte Nous recherchons un Développeur Senior possédant une double expertise en Développement Backend et en Ingénierie des Données, pour intégrer une équipe dédiée à l’Observabilité. Le consultant interviendra dans un environnement Azure et DevOps, avec un fort enjeu de fiabilité, performance et gouvernance des données. Localisation et modalités Lieu : Levallois-Perret Hybridation : 2 à 3 jours sur site / semaine Durée : engagement long terme (jusqu’à 3 ans) Démarrage : 13/10/2025 Fin prévue : 12/10/2026 Seniorité : +8 ans d’expérience minimum Missions et Responsabilités Développement Backend Concevoir, développer et maintenir des services backend (Python, PySpark). Exposer des APIs et intégrations orientées Observabilité. Data Engineering Construire et orchestrer des pipelines ELT/ETL robustes (Airflow, Spark, Python). Assurer la qualité, le lineage, la sécurité et l’observabilité des données. Stockage & Visualisation Gérer les données via PostgreSQL, Azure Blob Storage et ADLS. Créer des dashboards avancés avec Grafana pour la supervision des performances. Collaboration & Méthodologie Travailler avec les équipes de développement et le Product Owner (Agile/Scrum). Intégrer les pratiques d’observabilité dans les cycles de développement pour améliorer résilience et visibilité. Compétences techniques requises Langages : Python, PySpark, SQL, NoSQL (ElasticSearch). Data & orchestration : Spark, Airflow, PostgreSQL, ADLS, Azure Blob Storage. Observabilité : ELK Stack, Logstash, Azure Log Analytics (KQL), Grafana. Cloud & Infrastructure : Azure (AKS, Azure Functions, Event Hub, Delta Lake). CI/CD : GitHub Actions, intégration et déploiement continus. Bonus : Kafka, Spark Structured Streaming. Qualifications & Profil Diplôme en informatique/ingénierie ou équivalent. Expérience : 6+ ans en Data Engineering / Développement backend (dont plusieurs en environnement Azure & DevOps). Langues : Français et Anglais courants (écrit et oral). Résumé Mission longue (1 à 3 ans) sur Levallois-Perret, orientée sur le développement backend et l’ingénierie de données pour renforcer l’observabilité des systèmes critiques.
Freelance

Mission freelance
Développeur Python (Full remote)

Publiée le
FastAPI
Python

9 mois
360-430 €
Paris, France
Télétravail 100%
📌 Fiche de Poste – Développeur Python FastAPI 🎯 Contexte Nous recherchons un Développeur Backend Python spécialisé sur FastAP I pour renforcer une équipe tech travaillant sur des applications modernes et scalables. Le poste est ouvert en full remote (avec possibilité d’intervenir ponctuellement à Paris si souhaité). 🚀 Missions principales En collaboration avec les autres développeurs, Product Owner et DevOps, vos responsabilités incluront : • Développer et maintenir des API REST performantes avec FastAPI. • Concevoir et implémenter des microservices robustes et sécurisés. • Intégrer et optimiser les bases de données ( PostgreSQL, MongoDB, etc.). • Écrire des tests unitaires et d’intégration pour garantir la qualité du code. • Participer aux revues de code et à l’amélioration continue des bonnes pratiques. • Contribuer à la documentation technique et au suivi des User Stories. • Collaborer avec l’équipe produit et les QA pour assurer des livraisons fiables. 🛠️ Stack technique & environnement • Langage : Python 3.x • Framework : FastAPI • Bases de données : PostgreSQL , MongoDB, Redis • CI/CD : GitLab CI/CD, Docker, Kubernetes • Tests : Pytest, coverage • Cloud : AWS / GCP (selon projet) • Outils : Git, Jira, Confluence ⭐ Bonus • Connaissance des principes SOLID et du Clean Code. • Pratique de l’approche DDD ou Event-Driven Architecture. • Expérience dans des environnements Agile / Scrum.
Freelance
CDI

Offre d'emploi
Ingénieur de production

Publiée le
Jenkins
Kubernetes
Visual TOM

3 ans
Île-de-France, France
Télétravail partiel
Objectif global :Accompagner Ingénieur de production Devops Compétences techniques JBOSS - Confirmé - Impératif XL Release/ XL Deploy - Confirmé - Impératif Kubernetes - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Contexte : Dans le cadre du renforcement de l’équipe monétique , nous recherchons un Ingénieur de Production DevOps pour intervenir sur la chaîne de production des applications critiques de paiements. La mission consiste à automatiser, sécuriser et superviser les déploiements et l’exploitation des environnements applicatifs. Objectifs de la mission : Assurer le déploiement et l’exploitation d’applications critiques sur les environnements de production, gérer l'obsolescence des serveurs d'applications. Participer à la conception des architectures techniques et aux choix d’outillage Mettre en place des chaînes CI/CD automatisées (Jenkins, XL Release / XL Deploy) Administrer les serveurs web et d’applications : Apache, IHS, HAProxy, JBoss, Tomcat Gérer l’ordonnancement des traitements batch (VTOM et Control-M) Créer et maintenir des dashboards de suivi opérationnel Participer au suivi de production, à la gestion des incidents, et aux astreintes éventuelles Compétences requises : 🌐 JBOSS, TOMCAT, WAS, VTOM, XLR, XLD, APACHE, IHS OpenShift / Kubernetes un plus 🔧 DevOps & Automation : Jenkins, XL Release / XL Deploy GitLab CI, Ansible, Terraform, Docker Langages : Bash, Python, YAML 📦 Serveurs : Web : Apache, HAProxy, IHS Application : JBoss, Tomcat , WAS Ordonnancement : VTOM, Control-M Supervision : Grafana, Prometheus, ELK, Zabbix Profil recherché : Bonne expérience dans un environnement DevOps / Production applicative Esprit analytique, force de proposition, autonomie Aisance dans les échanges avec les équipes projets, OPS et sécurité Environnement technique : GCP, OpenShift, Jenkins, XL Release, XL Deploy, , Ansible, Terraform, Tomcat, JBoss, Apache, IHS, HAProxy, VTOM, Control-M, ELK, Grafana, Python, Bash, YAML
Freelance

Mission freelance
Data Engineer Fabric .Net

Publiée le
.NET
Databricks
Python

8 mois
500-520 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Fabric .Net , pour le compte de l'un de ses clients qui opère dans le domaine de l'Energie. Description 🧩 Contexte de la mission Intégré(e) à la squad Data Platform, vous interviendrez sur des projets stratégiques de modernisation et d’industrialisation de la plateforme Data du groupe. Votre rôle consistera à concevoir, maintenir et sécuriser l’infrastructure data et cloud, tout en accompagnant les équipes Data et DevOps dans leurs déploiements et pratiques CI/CD. Vous serez au cœur des sujets Terraform, Databricks, AWS, Python et MS Fabric, en interaction directe avec les Data Engineers, Data Architects et Data Officers. 🎯 Objectifs et livrables Participer à la réalisation du workplan et aux user stories du backlog. Automatiser les déploiements d’infrastructure via Terraform et GitHub Actions. Maintenir et améliorer le pipeline CI/CD (Terraform, Docker, AWS, MS Fabric). Contribuer au monitoring et à l’exploitation de la Data Platform. Développer des microservices en Python ou .NET (C#). Participer aux activités de Build et de RUN, incluant le support et les mises en production. Améliorer la résilience, la qualité et la sécurité du code (“shift-left”). Proposer des optimisations FinOps et d’observabilité (Grafana, App Insights). Maintenir la documentation technique et les bonnes pratiques DevOps/DataOps.
Freelance
CDI

Offre d'emploi
Data Scientist Senior – E-commerce Opération (H/F)

Publiée le
Apache Airflow
Google Cloud Platform (GCP)
Python

1 an
10k-58k €
100-580 €
Paris, France
Télétravail partiel
Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps
Freelance

Mission freelance
Développeur Python

Publiée le
Python

12 mois
500-520 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un développeur python pour l'un de ses clients dans le secteur de l'agroalimentaire. Contexte de la mission Dans le cadre du renforcement de son équipe Data & IA , le client recherche deux développeurs Python pour participer à plusieurs projets stratégiques autour de l’intégration et de l’exploitation d’une Data Plateforme . Démarrage : Octobre 2025 Durée : 6 mois renouvelables Entretiens : à prévoir, avec idéalement des exemples de réalisations et références clients Expérience attendue : 3 à 4 ans dans la réalisation de projets similaires Activités principales Développement de modules d’intégration, transformation et stockage de données à partir de : API externes Outils transactionnels Entrepôts de données internes Développement de modules d’exposition de données Support et corrections sur les applications existantes Mise en place et suivi des bonnes pratiques de développement Contribution aux projets en méthodologie Agile (cycles itératifs) Compétences techniques obligatoires Expérience confirmée dans le développement autour d’une Data Plateforme API Web REST conteneurisées Frameworks : Django et/ou FastAPI Conteneurisation avec Docker Environnements et outils DevOps Savoir-être recherchés Bonne capacité d’abstraction et de reformulation Adaptabilité au vocabulaire métier Écoute active , autonomie, rigueur et méthode Esprit de collaboration au sein d’une équipe de 8 personnes (Data & IA)
CDI

Offre d'emploi
Site Reliability Engineer (SRE) Azure (CDI)

Publiée le
Bash
DevOps
Github

Paris, France
Télétravail partiel
Lieu : Paris Type de contrat : CDI Démarrage : Dès que possible À propos du poste Nous recherchons un Site Reliability Engineer (SRE) spécialisé Azure pour renforcer notre équipe technique. Vous serez au cœur de la fiabilité, de la performance et de l’automatisation de nos plateformes cloud. Votre mission sera de garantir la disponibilité et la résilience des services tout en apportant une expertise DevOps et une culture forte de l’observabilité. Responsabilités principales Assurer la fiabilité, la performance et la sécurité de nos environnements Azure. Mettre en œuvre et maintenir des infrastructures as code avec Terraform. Définir, suivre et améliorer les SLA, SLO et SLI pour garantir la qualité de service. Déployer et optimiser des pipelines CI/CD avec GitHub Actions. Mettre en place et maintenir des solutions d’observabilité et monitoring (Grafana, Prometheus, alerting). Collaborer avec les équipes de développement pour améliorer la résilience et l’efficacité des applications. Participer à la gestion des incidents et à l’amélioration continue des processus d’exploitation.
Freelance

Mission freelance
Développeur AWS (Data Lake / Python / Terraform)

Publiée le
AWS Cloud
C#
Data Lake

1 an
430-500 €
Paris, France
Télétravail partiel
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .
Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
CDI
Freelance

Offre d'emploi
DevOps / Administration et MCO de la production

Publiée le
Ansible
Bash
Control-M

1 an
40k-47k €
200-390 €
Paris, France
Télétravail partiel
Nous sommes à la recherche d'un(e) ingénieur(e) de production pour rejoindre notre service Production Data Métiers. Notre équipe dynamique et jeune, forte de 13 membres, est à la recherche d'un(e) successeur(e) passionné(e) et expérimenté(e) pour renforcer notre effectif. Le(a) candidat(e) idéal(e) aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur le cloud public avec des bases solides en DevOps. Avoir des compétences sur Google Cloud Platform (GCP) sera fortement apprécié. Les principales missions qui vous seront confiées : - Surveillance et maintenance : Assurer la surveillance et la maintenance de notre service de production afin de garantir sa performance et sa disponibilité. - Conception et optimisation : Concevoir, mettre en place et optimiser les pipelines pour améliorer l'efficacité de notre travail. - Automatisation des processus : Automatiser les processus de déploiement et industrialiser les livraisons des infrastructures pour renforcer la fiabilité et la rapidité. - Documentation : Rédiger et maintenir la documentation des processus et des systèmes mis en place pour assurer la traçabilité et la réversibilité.
280 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous