Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 463 résultats.
Freelance

Mission freelance
Développeur Full Stack (.NET + Angular)

HAYS France
Publiée le
.NET
Angular
Azure DevOps

1 an
400-450 €
59279, Loon-Plage, Hauts-de-France
Notre client, acteur industriel international, développe des solutions technologiques innovantes pour optimiser ses processus et accompagner ses partenaires dans leur transformation digitale. Dans ce cadre, nous recherchons un Développeur Full Stack (.NET + Angular) expérimenté pour renforcer l’équipe Études et Développement. Vos missions Concevoir, développer et maintenir des applications backend (.NET) et frontend (Angular) . Rédiger la documentation technique du code produit. Mettre en place et optimiser les pipelines CI/CD via Azure DevOps . Participer aux essais industriels avec les fournisseurs pour garantir la qualité des livrables. Contribuer à l’évolution des architectures et à la mise en œuvre des bonnes pratiques.
Freelance

Mission freelance
Data Engineer cloud Google (GCP)

KEONI CONSULTING
Publiée le
API
Google Cloud Platform (GCP)
Python

18 mois
100-500 €
Paris, France
CONTEXTE : Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. mission de l’ équipe 1. Déployer les datasets normés sur un ou plusieurs des data domain 2. Accompagner les utilisateurs des datasets normés dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets MISSIONS : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant des flux avec l’API Collibra • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé • Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé • Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
CDI

Offre d'emploi
Ingénieur DevOps & Back-End Sénior (H/F)

Harry Hope
Publiée le

60k-70k €
Crédit Agricole du Languedoc, Occitanie
Notre client est un éditeur de jeux vidéo majeur, reconnu pour ses licences internationales et sa croissance rapide (plus de 15 studios intégrés depuis 2019). Dans une logique d'innovation et de mutualisation des services, l'entreprise a constitué une cellule R&D, dédiée au développement de solutions transverses et à la modernisation de ses environnements techniques via des pratiques DevOps et Cloud Native. Au sein de cette équipe agile de quatre personnes basée à Montpellier, vous interviendrez sur le projet d'une plateforme SaaS qui fait le lien entre les jeux et les studios. Votre rôle sera clé dans l'évolution de l'architecture logicielle et l'accompagnement technique des équipes internes. Vous aurez notamment pour missions : - Concevoir et maintenir une infrastructure cloud-native sur Google Cloud Platform (GKE & Cloud Run), garantissant performance et scalabilité. - Définir et améliorer les pipelines CI/CD pour des déploiements fiables et automatisés (GitLab CI, FluxCD, approche GitOps). - Gérer la synchronisation sécurisée des secrets et politiques via External Secrets Operator et Kyverno. - Développer des microservices backend en Go (Golang), dans une logique de décomposition du monolithe existant. - Collaborer avec les équipes produit et techniques pour optimiser les workflows et réduire les frictions de livraison. Vous rejoindrez une structure à taille humaine, avec une culture de la liberté et de la responsabilité : un esprit start-up au sein d'un grand groupe. Avantages et conditions : - CDI - statut cadre - forfait jour - 1 jour de télétravail par semaine - 8 jours de RTT - Locaux spacieux, proches de la gare, avec un réfectoire et une ambiance passionnée de développeurs de jeux - Rémunération : 60 à 70 KEUR selon profil - Environnement exigeant mais flexible, offrant une grande autonomie et de réelles perspectives d'impact sur la stratégie technique du groupe
Freelance

Mission freelance
Data Product Manager en Data Lab - Rennes

Argain Consulting Innovation
Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 mois
520-570 €
Rennes, Bretagne
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Freelance

Mission freelance
[SCH] Consultant DevOps Azure / Appétence FinOps - 1222

ISUPPLIER
Publiée le

10 mois
350-380 €
La Garenne-Colombes, Île-de-France
Dans le cadre d’un projet stratégique international, notre client lance la création d’un nouveau Centre de Services (CDS) au Mexique, avec un périmètre couvrant la région LATAM. La mission s’inscrit dans la réalisation d’un Business Case (BCase) et nécessite un Consultant DevOps Azure capable d’adresser à la fois les enjeux techniques, financiers (FinOps) et organisationnels, dans un contexte multiculturel et international. Missions principales : Contribuer à la réalisation du Business Case (BCase) pour le périmètre LATAM Participer à la création et au cadrage du CDS au Mexique Concevoir, déployer et exploiter des solutions sur Microsoft Azure Intervenir sur les sujets DevOps, Cloud et gouvernance Apporter une appétence FinOps (optimisation des coûts, pilotage, recommandations) S’interfacer avec des interlocuteurs variés : Équipes techniques Équipes business Management de haut niveau (CISO, DAF, directions) Participer aux échanges internationaux en français, anglais et espagnol Contribuer à l’amélioration continue des pratiques Cloud & DevOps Profil attendu : Consultant DevOps Azure confirmé Forte capacité de communication et excellente posture client À l’aise dans des environnements internationaux et multiculturels Capacité à dialoguer avec des profils techniques, business et exécutifs Sensibilité forte aux enjeux FinOps Autonomie, maturité et crédibilité professionnelle
CDI

Offre d'emploi
Expert IAM

CAT-AMANIA
Publiée le
CI/CD
DevOps
Gitlab

Montpellier, Occitanie
Nous recherchons un profil de Développeur intégrateur dans un environnement Agile pour une mission en régie sur des solutions liées à l'IAM (Identity Access Management) : Tâches : - Concevoir, développer, tester et maintenir la solution IAM au sein de la Tribu IT, en respectant les standards de l’entreprise (Back, API) - Accompagner la Squad GuardiAM sur le RUN et le Build de l’IAM Netwrix Identity Manager - Affiner et prendre en charge les récits sur le développement, le paramétrage, l'intégration, les tests du produit IAM - Participer aux rituels Agiles
CDI
CDD
Freelance

Offre d'emploi
DATA  Engineer GCP

KEONI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
Scrum

18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Database Engineer H/F

HAYS France
Publiée le
AWS Cloud
Azure
DevOps

10 mois
Lille, Hauts-de-France
Dans le cadre du renforcement des équipes Data & Infrastructure d’un groupe international du secteur retail, nous recherchons un Database Engineer pour garantir la performance, la disponibilité et la sécurité des bases de données en environnement hybride (On-Premise & Cloud). Vous interviendrez en collaboration avec les équipes IT et Data sur des enjeux de scalabilité, d’automatisation et d’optimisation des plateformes. Vos missions : Administrer, maintenir et optimiser des bases de données SQL et NoSQL (PostgreSQL, Oracle, Redis, Snowflake, OpenSearch) Assurer la haute disponibilité, les sauvegardes et les PCA/PRA Superviser les performances et réaliser le tuning (requêtes, indexation, partitionnement) Mettre en œuvre des pratiques DevOps et Database as Code Gérer la sécurité des données (accès, chiffrement, conformité RGPD) Participer aux migrations Cloud (AWS RDS, Azure SQL) Automatiser les déploiements et accompagner les équipes de développement sur les bonnes pratiques
CDI
Freelance

Offre d'emploi
Support applicatif technico-fonctionnel

Atlanse
Publiée le
CFT (Cross File Transfer)
DevOps
Support technique

3 ans
42k-55k €
400-500 €
Île-de-France, France
Vous interviendrez en tant que support applicatif technico-fonctionnel pour assurer la continuité des services et résoudre les incidents techniques et fonctionnels. Vous participerez à l’automatisation des processus, l’amélioration continue et la capitalisation des connaissances dans le cadre de la réversibilité entrante. Missions Intégration, DevOps et production applicative · Réaliser des scripts techniques · Mettre en place et gérer l’ordonnancement des traitements applicatifs · Analyser les logs · Résoudre les incidents techniques liés aux bases de données, au réseau, à la sécurité… · Intervenir sur les environnements de production et hors production Automatisation et amélioration continue · Identifier les axes d’automatisation (MCO, supervision, déploiement, support) · Formaliser les besoins et piloter la mise en œuvre des recommandations avec l’équipe dédiée · Tester et valider les livraisons avant leur mise en production Reprise de connaissance et capitalisation · Reprendre un existant actuellement assuré par les développeurs (support fonctionnel et applicatif) · Monter en compétences sur les applications, processus et pratiques existantes · Formaliser, structurer et maintenir à jour la documentation technique et fonctionnelle
Freelance

Mission freelance
Data Engineer/Architect Apache Iceberg (Marseille 3j)

Cherry Pick
Publiée le
Apache
Google Cloud Platform (GCP)
Python

6 mois
600-620 €
Marseille, Provence-Alpes-Côte d'Azur
En quelques mots Cherry Pick est à la recherche d'un Data Engineer/Architect(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de la fabrication et la commercialisation des drones. Description 🧭 Contexte de la mission Dans un contexte de forte croissance des usages data autour de données issues de capteurs drones , la mission vise à concevoir et structurer une plateforme data internalisée , capable d’absorber des volumes importants de données hétérogènes (temps réel et batch), tout en répondant à des enjeux de sensibilité des données clients et de maintenance prédictive . 🛠️ Missions principales et rôle Concevoir et mettre en place un Data Lake basé sur une architecture médaillon (Bronze / Silver / Gold) Gérer l’ingestion et le stockage de données capteurs drones et de données tabulaires Mettre en œuvre une architecture data basée sur Apache Iceberg Garantir la disponibilité rapide des données après les vols d’essai Participer à la conception d’une brique data autonome , isolable pour les cas de données sensibles clients Contribuer à l’ internalisation de la plateforme data Traiter des pics de charge importants (jusqu’à 10 Go de données arrivant simultanément) Collaborer avec les équipes plateforme et data science sur les cas d’usage de maintenance prédictive 🎯 Objectifs Centraliser et fiabiliser les données drones dans un Data Lake scalable et robuste Permettre une exploitation rapide des données post-vol Sécuriser et isoler certaines données selon les contraintes clients Préparer les données pour des usages avancés (analytique, maintenance prédictive)
Freelance

Mission freelance
Implementation Specialist Data Domain & NetBackup

ALLEGIS GROUP
Publiée le
Ansible
API
Big Data

3 ans
Montreuil, Île-de-France
Nous recherchons un Implementation Specialist Data Domain & NetBackup pour intervenir sur une architecture mondiale de sauvegarde , à très forte volumétrie. L’environnement comprend : 50 domaines NetBackup Environ 200 000 jobs/jour Rétention basée sur des librairies de bandes Mission orientée build, run, restore et analyse , avec un fort niveau d’exigence opérationnelle. Vos missions Concevoir, implémenter et administrer les systèmes Data Domain Configurer et exploiter les environnements NetBackup Gérer les opérations de : sauvegarde, restauration, réplication Optimiser les performances, capacités et flux de données Définir et mettre en œuvre les stratégies de protection des données Diagnostiquer et résoudre des incidents complexes Participer à l’automatisation (API, Python , Ansible ) Rédiger et maintenir la documentation technique Collaborer avec les équipes infrastructure, production et sécurité
Freelance

Mission freelance
Azure Cloud Engineer Senior (AI / Machine Learning) H/F

Comet
Publiée le
Azure
Azure AI Foundry
DevOps

60 jours
400-490 €
France
Dans le cadre d’initiatives stratégiques autour de l’intelligence artificielle et du machine learning, un grand groupe industriel lance un appel d’offres pour renforcer ses équipes avec un Azure Cloud Engineer senior . La mission consiste à concevoir et déployer une plateforme d’exploration AI/ML (sandbox) sécurisée, scalable et industrialisable, destinée à permettre aux équipes data et innovation d’expérimenter et prototyper des cas d’usage IA sans impact sur les environnements de production. Le consultant interviendra sur le déploiement et la structuration d’une plateforme AI/ML basée sur Microsoft Azure, en cohérence avec une architecture existante. Les responsabilités incluent notamment : Conception et déploiement d’une architecture cloud modulaire et scalable Mise en place d’une sandbox AI/ML sécurisée et isolée Support de plusieurs frameworks ML/AI Développement d’ APIs abstraites pour faciliter l’adoption utilisateur Implémentation de pipelines automatisés (CI/CD, MLOps) Gestion des données : gouvernance, conformité et sécurité Mise en œuvre de dashboards de monitoring et d’analytique Documentation complète et transfert de compétences Maintenance, qualité et correction des anomalies
CDI

Offre d'emploi
Développeur PHP - Symfony Senior H/F

█ █ █ █ █ █ █
Publiée le
CI/CD
DevOps
Docker

38k-46k €
Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Ingénieur (30)

VISIAN
Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-550 €
Île-de-France, France
Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Freelance

Mission freelance
[FBO] Ingénierie Système Linux / Virtualisation (BUILD) - Noisy-le-Grand - 1344

ISUPPLIER
Publiée le

9 mois
500-615 €
Noisy-le-Grand, Île-de-France
Mission – Ingénierie Système Linux / Virtualisation (BUILD) Renfort : 2 ETP – Durée : 3 mois renouvelable – Contexte Cloud Objectif de la mission Renforcer l’équipe en charge du BUILD pour la création, l’industrialisation et la mise en place de nouveaux environnements d’infrastructures dans un contexte hybride OVH Cloud / VMware / Linux. Intervention exclusivement orientée projets Build (pas de RUN). Profil recherché Ingénierie Système confirmé (? 5 ans d’expérience) expert en Linux, virtualisation et Cloud, capable de concevoir, déployer, industrialiser et documenter des environnements techniques complexes. Pratique éprouvée du building from scratch, de la configuration d’infrastructures et de la mise en production de plateformes techniques. Compétences techniques attendues Systèmes & Virtualisation : Linux (expert), VMware (confirmé). Cloud / Infra : OVH Cloud, OVH SNC ; participation à la création et configuration de nouveaux environnements. Containers / Orchestration : Kubernetes, OKD, Helm (installation, configuration, packaging). Réseau : maîtrise IP / routage / gateway ; analyse de trafic (Wireshark). Supervision / Observabilité : capacité à intégrer/paramétrer Dynatrace, Zabbix, Grafana, Prometheus, Kibana. Middleware / Services : Kafka, MinIO, GoAnywhere MFT, LDAP DS389, IPAM, SMTP (installation & configuration). CI/CD & Automatisation : création de pipelines et automatisations via GitLab, Ansible, Nexus, Vault, Rundeck. Documentation : rédaction structurée pour le Build‑to‑Run. Langue Français
CDI

Offre d'emploi
ARCHITECTE SOLUTION DATA

Inventiv IT
Publiée le
Architecture
AWS Cloud
Data visualisation

74k-82k €
Paris, France
Forte expertise d’architecture Big Data et Cloud. Au sein de la Data & IA Fabric, couvrant les missions d’étude, de conception, de réalisation et de maintenance du socle Data et des SI du périmètre, ainsi que l’accompagnement des métiers dans l’utilisation des différentes plateformes Data existantes ou en développement. Mission : concevoir et construire l’architecture fonctionnelle, logique, physique et opérationnelle des plateformes dans le cadre de la stratégie des socles Data (Plateformes Data). Assister les architectes solutions, devops et data ingénieurs des squads Plateformes dans leurs activités de BUILD et de RUN. Build EXEMPLE : Proposer des évolutions des briques socle, rédiger leur cadrage technique, voire même, selon le profil du consultant, contribuer directement à leur intégration et configuration. Participer à la priorisation des fonctionnalités dans les cadrages de versions des socles plateformes. Définir des normes de développement sur la plateforme Data Groupe. Participer à la validation de la stratégie de recette (TU, TI, TAU) applicables aux développements Plateforme d’un côté, et aux développements de la squad Projet de l’autre Assurer la gestion des risques techniques et de la réversibilité pour la platform Data et le Data Catalogue Groupe Run EXEMPLE : Positionner, superviser voire Contribuer au maintien en conditions opérationnels des plateformes Data et du Catalogue Groupe (maintenance corrective, préventive et évolutive) Support expert N3 Sous la responsabilité du Product Owner de la Plateforme Data Groupe Il s’appuiera sur une équipe complète de DevOps, Data Ingénieurs et des leads de pratique Data Management, Dataviz et ML Ingénierie, ainsi que sur un pool d’architectes dédiés. Expériences réussies d’au -moins 6 ans dans le conseil en architecture solution data Expérience d’au moins 3 ans comme data ingénieur, en vue de la création, l’orchestration et monitoring de flux de données, sur des clouds publics, de préférence AWS Une expertise de développement en langage Spark et Python, pendant au moins 3 ans, est requise afin de réaliser les code reviews Une expérience sur Databricks d’au moins 4 ans sur une plateforme. Une 1è certification Databricks officielle est requise Une expérience d’intégrateur, de mises en production avec les technologies : Terraform, ou Jenkins, Docker ou Kubernetes. Paris 12 – 3 jours de TT
1463 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous