Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 399 résultats.
Freelance
CDI

Offre d'emploi
Profil QA IA GEN

Publiée le
Cloud
IA
RGPD

1 an
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Tâches attendues : Rédaction de scénarios de tests : design, éxecution, automatisation Gestion du backlog en mode scrum board Priorisation des bugs avec l’équipe produit, outillage de test Contribution à l’implémentation de tests automatisés Contribution dans la mise en œuvre des processus QA auprès de l’équipe produit Usage : Utiliser des outils d'IA pour générer des cas de test, identifier les tests pertinents et analyser les résultats. Prendre en compte les spécificités et biais des solutions IA lors des tests. Intégration : Comprendre les spécificités du test d'une fonctionnalité basée sur l'IA (non-déterminisme, biais potentiels, etc.). Livrables : Scripts d’automatisation des tests avec KARATE/GATLING framework ou logiciel interne Ticketing et report Xray/Jira de l’équipe automatisation Documentation process et de bonnes pratiques d’automatisation des tests Etat d’avancement des correctifs vers la chaine support
CDI

Offre d'emploi
Consultant Administrateur Applicatif BI / Data

Publiée le
Microsoft Power BI
Qlik Sense
Sap BO

Paris, France
Télétravail partiel
Le département Data & Applications Métier pilote la conception, le déploiement et la maintenance des solutions de reporting et d’analyse du groupe. Les environnements décisionnels reposent sur SAP BO, BODS, HANA, avec une migration en cours vers GCP / BigQuery. L’objectif est de renforcer l’équipe avec un administrateur applicatif BI confirmé, capable d’assurer la supervision, l’administration et les déploiements sur les plateformes actuelles et d’accompagner la migration vers le cloud. Missions principales Administrer et superviser les plateformes décisionnelles (SAP BO, BODS, HANA, et à terme GCP/BigQuery). Surveiller les traitements et automatisations (batchs, alimentations, planifications). Gérer les accès, habilitations et déploiements applicatifs. Diagnostiquer et corriger les incidents applicatifs (niveau 2/3). Participer à la définition du monitoring et des bonnes pratiques sur les environnements Cloud. Proposer des optimisations (performance, automatisation, qualité des données).
Freelance

Mission freelance
Chef de Projet Data Science (H/F)

Publiée le
BigQuery
Data science
Gestion de projet

210 jours
610-800 €
Île-de-France, France
Télétravail partiel
Un grand groupe français du secteur des médias et du numérique recherche un Chef de Projet Data Science senior pour coordonner les initiatives data entre équipes techniques et directions métiers, afin de maximiser l'exploitation de la donnée comme levier de croissance. Missions principales : Assurer la cohérence entre les pôles Data (Technique, Intelligence, Management, Gouvernance) Être le point d'entrée pour les directions métiers (Produit, Editorial, Marketing, Publicité) Recueillir et formaliser les besoins data Animer ateliers et instances projets Produire le reporting et suivre les avancées
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Google Cloud Platform (GCP)
Helm

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Rattaché à la Global Tech & Data Platform , domaine Voice of Customer . Support fonctionnel et technique sur le produit Datahub Pipelines (data engineering). Environnement Google Cloud Platform (GCP) . Missions principales Analyser et résoudre des incidents complexes. Identifier les incidents récurrents et proposer des solutions pérennes. Traiter les demandes de services et questions des utilisateurs internes. Collaborer avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents. Accompagner les nouveaux utilisateurs (onboarding). Contribuer à l’automatisation et à l’amélioration continue des produits. Documenter et partager les résolutions pour capitaliser. Compétences techniques requises Cloud Computing : GCP (Confirmé – impératif) Data Engineering : Confirmé – impératif Observabilité & Monitoring : Datadog (Confirmé – important), Prometheus, Grafana Infrastructure as Code & Automatisation : Terraform, Ansible, Helm, Kubernetes (Confirmé – important) Scripting : Python, Bash, Go Gestion des alertes : PagerDuty
Freelance
CDI

Offre d'emploi
SCRUM MASTER SENIOR ASSURANCE

Publiée le
Agile Scrum
Confluence
IA

1 an
45k-56k €
450-550 €
Île-de-France, France
Télétravail partiel
Localisation : Paris Expérience : 8 ans et plus Mission : 6 mois renouvelable Spécialités technologiques : Intelligence Artificielle, Machine Learning Compétences : Technologies et Outils : confluence, JIRA Méthodes / Normes : ScrumAgile Secteurs d'activités : Assurance Description et livrables de la prestation : Contexte : Notre client n'a actuellement pas de Scrum Master dans son équipe. L'objectif est de l'accompagner dans l’industrialisation de sa démarche agile. Le défi principal n’est pas uniquement d’«animer des cérémonies», mais de structurer une organisation multi-produits, en croissance rapide, avec un niveau de maturité agile hétérogène et une forte exigence technique liée à l’IA. Vos missions principales : 1. Structurer et stabiliser le cadre agile - Mettre en place ou réorganiser les cérémonies (Sprint Planning, Daily, Review, Rétro) avec des objectifs clairs et des formats adaptés à l'équipe. - Instaurer une définition claire des rôles (PO ≠ Scrum Master), pour éviter l’hybridation subie actuelle. - Définir des standards : DoR, DoD, gestion du backlog, critères de priorisation, formats des User Stories. 2. Améliorer le flux de delivery - Identifier les goulets d’étranglement (spécification, QA, dépendances IA, changements de priorité). - Proposer des mécanismes pour limiter le travail en cours et stabiliser les Sprints. - Introduire des métriques utiles (et non bureaucratiques) : vélocité, lead time, focus factor, qualité. 3. Évangélisation & montée en compétence - Former l’équipe aux pratiques agiles orientées produit. - Sensibiliser l’organisation aux impacts des interruptions, demandes intempestives et dérives de scope. 4. Soutien produit / IA - Comprendre les contraintes spécifiques du développement IA - Aider à articuler la roadmap entre chantiers IA, dev applicatif et intégration. 5. Amélioration continue structurée - Construire un cycle d’amélioration réellement exploité (pas juste une rétrospective). - S’assurer que les décisions de rétro sont suivies (responsables, deadlines, preuves d’impact). Expertise souhaitée : - 7–10 ans d’expérience en tant que Scrum Master dans un environnement produit (pas un SI classique). - Excellente maîtrise de Jira & Confluence (workflow, board sur mesure, reporting). - Contexte multi-produit ou complexe - Vision produit : compréhension des arbitrages, de la valeur, du découpage. - A déjà accompagné une équipe avec un périmètre IA, Data ou R&D.
Freelance
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Python
SQL

1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Freelance

Mission freelance
Manager AMOA & Gouvernance SI / DATA – DSI Interne

Publiée le
Data management
Gouvernance
Pilotage

6 mois
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein de la Direction des Systèmes d’Information Interne , pour piloter l’équipe AMOA & Gouvernance SI/DATA dans un environnement multi-BUs, multi-outils et multi-process . Votre rôle : garantir la cohérence du SI Corporate et valoriser la donnée au cœur des activités métiers. ✅ Vos missions principales : 👥 Management d’équipe • Encadrer, animer et développer les compétences de l’équipe AMOA & Data • Prioriser la charge et assurer la cohérence avec la feuille de route SI interne • Favoriser la collaboration transverse entre IT et métiers 🚀 Conduite de projets & Transformation SI / Data • Accompagner les métiers dans le cadrage et la mise en œuvre des solutions SI • Piloter les projets de bout en bout (gouvernance, planification, recette, mise en prod) • Garantir la qualité, la sécurité et la conformité des projets Data 🧭 Urbanisation & Gouvernance de la donnée • Déployer la gouvernance des données et animer la culture Data • Gérer les référentiels internes (clients, produits, projets…) • Maintenir la cartographie du SI et la documentation fonctionnelle
Freelance
CDI

Offre d'emploi
Data Scientist Senior

Publiée le
Python
SQL

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Au sein de la Direction Data (Direction du Numérique), l'équipe Data Science (4 DS, 2 DA) recherche un Data Scientist pour renforcer l'analyse d'usages et le pilotage. La Direction Data poursuit trois missions principales : maximiser la collecte conforme, développer la connaissance et l'expérience utilisateurs, et fournir des outils de pilotage et d'aide à la décision. Activités Attendues Audit et enrichissement du socle de données (nouvelles données du datalake) Exploration et analyses des profils et comportements (par canaux d'acquisition et contenus) et impact de la pression publicitaire Mise en place de cas Data Science : compréhension besoin métier, choix d'approches, vulgarisation Prévision d'audience, segmentation utilisateurs, prédiction inactivité/appétence/churn Analyses sémantiques de commentaires ; enrichissement de catalogue via l'IAG Profil Recherché Niveau d'expérience requis : 8 ans en data science (profil senior >5 ans) Expériences IA : Prévisions Recommandation Score d'appétence Anti-churn Sémantique Détection d'anomalies IAG
Freelance
CDI

Offre d'emploi
Consultant Senior SAP FI/CO - S/4HANA

Publiée le
SAP ECC6
SAP FICO
SAP HCM

3 ans
69k-81k €
650-800 €
La Défense, Île-de-France
Télétravail partiel
🎯 Contexte Dans le cadre d’un programme de transformation financière à fort enjeu, nous recherchons un Consultant SAP FI/CO Senior pour renforcer une équipe experte intervenant sur des projets internationaux (migration S/4HANA, optimisation des processus Finance). 🛠️ Missions principales Pilotage & relation métier Piloter et animer les ateliers de recueil des besoins avec les équipes Finance et Contrôle de gestion Être l’interlocuteur clé entre les métiers et les équipes techniques Accompagner les utilisateurs : formation, support, documentation Conception & paramétrage SAP FI/CO Concevoir, paramétrer et optimiser les modules : FI : Comptabilité Générale (GL) Comptes Clients (AR) Comptes Fournisseurs (AP) Immobilisations (AA) CO : Centres de coûts (CCA) Centres de profit (PCA) Analyses de rentabilité Ordres internes Gérer les intégrations inter-modules : MM, SD, HCM, BW Projets & qualité Participer activement aux projets de migration / conversion vers S/4HANA Contribuer aux tests unitaires et intégrés , garantir la qualité fonctionnelle Identifier des axes d’ amélioration continue et proposer des solutions innovantes Assurer une veille fonctionnelle et technologique (S/4HANA Finance, Central Finance…) Leadership Encadrer et coacher les consultants juniors de l’équipe
Freelance

Mission freelance
Data Analyst snowflake, DataBricks Power BI SQL

Publiée le
FinOps
Snowflake

6 mois
La Défense, Île-de-France
Télétravail partiel
Dans ce cadre, une équipe FinOps a été mise en place afin de garantir la maîtrise des coûts Cloud , le respect des budgets et la mise en œuvre d’une gouvernance financière Cloud structurée . La mission s’inscrit au cœur de ce programme stratégique, avec la construction d’une FinOps Tower destinée à centraliser les analyses financières, le monitoring des coûts et les mécanismes d’alerting. Objectifs de la mission Assurer la maîtrise financière des environnements Cloud Azure Mettre en place une plateforme d’analyse FinOps robuste et industrialisée Détecter et prévenir les dérives budgétaires en amont Accompagner les équipes projets sur les bonnes pratiques FinOps Rôle & Responsabilités Mise en place d’ analyses FinOps sur les données de consommation Azure Conception et exploitation d’une sandbox Snowflake pour l’analyse des coûts Cloud Industrialisation des traitements en lien avec l’équipe Data Platform Intégration des données FinOps dans l’écosystème Finance / IT / Applicatif Définition et implémentation de règles d’alerting pour la détection des risques financiers Réalisation de POC pour l’intégration de solutions SaaS (Snowflake, Databricks, GitHub, PowerBI, etc.) Analyse de la consommation des ressources d’infrastructure afin d’assurer la juste utilisation des services Cloud Mise en place de contrôles automatisés FinOps (non-conformités, surconsommation, anomalies) Activités RUN FinOps Surveillance continue des coûts Cloud et gestion des alertes Support FinOps aux équipes projets Définition et suivi des plans de remédiation Gestion des réservations Cloud et identification d’opportunités d’optimisation Accompagnement des projets en phase amont (onboarding FinOps, revues d’architecture, validation budgétaire) Maintenance et enrichissement du reporting FinOps Environnement Technique Cloud : Microsoft Azure Data / FinOps : Snowflake, SQL Restitution & BI : PowerBI Data / SaaS : Databricks, GitHub Scripting / Automation : Python, PowerShell IaC : Terraform Monitoring & requêtage : KQL Livrables clés FinOps Tower opérationnelle (analyses, showback, alerting) Tableaux de bord FinOps à destination des équipes projets Règles d’alerting budgétaire automatisées POCs industrialisés et mis en production Reporting coûts et recommandations d’optimisation Profil de la mission Mission freelance longue durée Forte composante Cloud / Data / FinOps Environnement international – anglais professionnel Forte interaction avec équipes IT, Data et Finance
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Datadog
Google Cloud Platform (GCP)

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Attaché à la Global Tech & Data platform, dans le Domain Voice of Customer tu rejoins une équipe pluridisciplinaire d’assistance à nos clients internes (BU, plateformes, …) dont la mission principale est de prendre en charge toutes les sollicitations en provenance des utilisateurs de la Tech&Data (Incidents, demandes de services, questions). Tu seras rattaché directement à l'activité de l'un de nos produits de data engineering: Datahub Pipelines pour lequel nous avons besoin de support fonctionnel (compréhension du logiciel back et front), technique (comprendre et régler des problèmes d'implémentations, notamment dans la stack technique des produits digitaux via terraform). L'univers de développement est complètement encadré dans GCP. Missions principales : 🛠 Tu analyses et résous des incidents complexes 🔍 Tu identifies les incidents récurrents 🤝 Tu traites les demandes de services 🤝 Tu collabores avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents 🤝 Tu collabores avec l'équipe onboarding et advocacy pour l'accompagnement des nouveaux utilisateurs 📊 Tu contribues à l'automatisation et à l’amélioration continue du/des produits 📝 Tu documentes et partages nos résolutions pour capitaliser 2. Compétences techniques requises : ✅ Cloud Computing : GCP ✅ Observabilité & Monitoring : Datadog, Prometheus, Grafana, ✅ Automatisation & Infrastructure as Code : Terraform, Ansible, Helm, Kubernetes (K8s) ✅ Scripting : Python, Bash, Go ✅ Gestion des alertes : PagerDuty 3. Soft Skills recherchées : ⭐ Esprit analytique : Capacité à détecter rapidement des problèmes et à les résoudre efficacement. ⭐ Proactivité & autonomie : Capacité à anticiper les incidents avant qu’ils n’impactent les services. ⭐ Collaboration : Travail en équipe avec les équipes produit ⭐ Sens du service client : la satisfaction de nos clients est ta priorité Un minimum de 2 jours sur site est exigé
Freelance

Mission freelance
Consultant(e) Senior SAP CO

Publiée le
Cloud privé
SAP
SAP S/4HANA

12 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons pour l'un de nos clients un(e) consultant(e) Senior SAP CO dans le cadre d'un projet de construction de core model S/4 HANA Private Cloud
CDI

Offre d'emploi
Consultant SAP (H/F)

Publiée le

45k-55k €
Remiremont, Grand Est
Rattaché(e) au DSI, vous participez au support et à l'évolution de notre système SAP (ECC ou S/4 HANA). Vous traitez les incidents et les demandes d'assistance, identifiez les causes des anomalies et accompagnez les utilisateurs dans la prise en main des outils. Vous pilotez les demandes d'évolution, aidez les Key Users à formaliser leurs besoins, proposez des solutions standards SAP et réalisez le paramétrage ainsi que le développement ABAP. Vous assurez le suivi des développements externes et contribuez aux phases de test et de validation. En lien étroit avec l'équipe projet, vous participez aux réunions de suivi, collaborez sur les développements non SAP, rédigez la documentation technique et développez ou maintenez les queries SAP.
CDI
Freelance

Offre d'emploi
Administrateur Systèmes N2/N3 – Data Lake / Linux / Cloudera

Publiée le
Ansible
Apache Airflow
Linux

24 mois
Île-de-France, France
Télétravail partiel
Mission: Lieu : IDF (sud de Paris) Démarrage souhaité : Janvier 2026 Télétravail : 2 jours par semaine Astreintes : Oui Nous recherchons trois Administrateurs Systèmes N2/N3 pour intervenir sur une plateforme Data Lake de grande envergure. Vous rejoindrez l’équipe en charge de l’administration, du maintien en conditions opérationnelles et de l’automatisation des environnements Linux/Cloudera. Il s’agit d’une mission longue et techniquement exigeante, dans un environnement moderne mêlant Big Data, automatisation, scripting et ordonnancement. Responsabilités principales Administrer et exploiter la plateforme Data Lake (environnements Cloudera & Linux) Assurer le MCO/MCS des clusters (fiabilité, disponibilité, supervision) Implémenter et maintenir des pipelines d’automatisation via AWX / Ansible Rédiger et maintenir des scripts d’administration (Python, Shell, Ansible) Participer aux phases d’industrialisation, normalisation et sécurisation des environnements Gérer les accès et l’identité via IDM / FreeIPA Exploiter et optimiser les workflows sous Airflow Participer à la gestion des incidents (N2/N3), astreintes et interventions HNO Travailler en coordination avec les équipes Data, Sécurité et Exploitation
Freelance

Mission freelance
Un(e) Data Analyste - Maintenance évolutive d'une application de reporting

Publiée le
IBM DataStage
Microsoft Power BI
Microsoft SQL Server

6 mois
400-480 €
Bois-Colombes, Île-de-France
Télétravail partiel
Data Analyste Expert - Maintenance évolutive d'une application de reporting Contexte : Nous recherchons pour un(e) consultant(e) Data Analyste BI confirmé(e) pour assurer la maintenance évolutive et contribuer à l'amélioration continue d'une application de reporting interne dédiée au suivi commercial. Cette application joue un rôle clé en collectant des données stratégiques et en les mettant à disposition des utilisateurs internes afin de suivre et analyser la performance commerciale. Missions : En tant que Data Analyste confirmé, vous serez chargé(e) de la gestion opérationnelle de l’application de reporting et participerez activement à un projet stratégique visant à optimiser le processus de collecte et de mise à jour des données. Ce projet a pour objectif de simplifier les flux de données, réduire au minimum les traitements manuels, et accélérer le cycle de mise à jour des informations tout en garantissant une qualité de données irréprochable. Plus spécifiquement, vous serez amené(e) à : • Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions nécessaires pour répondre aux besoins internes. • Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. • Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. • Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. • Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. • Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. • Assistance aux utilisateurs en faisant preuve de pédagogie pour les autonomiser. Aide à la gestion du changement. Compétences techniques et linguistiques requises Profil recherché : • Expertise confirmée en Business Intelligence, avec une maîtrise des outils d’extraction et de traitement de données, et des technologies associées. • Maitrise de l’utilisation de SQL pour sélectionner des données • Compétences solides en analyse de données, avec une capacité à traduire des besoins métiers en solutions techniques. • La connaissance d’outils de reporting serait un plus. • Capacité à travailler de manière autonome et en équipe. • Rigueur et souci de la qualité des données, avec une forte orientation résultats. Les solutions BI mise en œuvre actuellement chez le client sont basées sur les technologies suivantes : • Oracle • IBM Datastage • Power BI • SAP Business Object 4.2 • Outil de data virtualization comme Denodo • Sqlserver Compétences requises • Une expérience significative d’un minima de 4 années dans l’intégration de systèmes décisionnels • Une expertise concrète en environnement BI • De solides connaissances ainsi qu’une expérience significative dans la manipulation de données. • Des compétences fonctionnelles • Un fort sens de l’analyse et de la pro activité • Capacité rédactionnelle • Excellent relationnel • Maîtrise de l’anglais indispensable (lu, parlé, écrit) Autres compétences appréciées • Connaissance du métier de l’assurance Durée de la Prestation Régie, pour une période de 6 mois renouvelable.
Freelance

Mission freelance
Data Architecte (Secteur Energie / Industrie)

Publiée le
Apache Airflow
Apache Spark
Architecture

12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
5399 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous