L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 771 résultats.
Mission freelance
Backend developer
Codezys
Publiée le
API
Azure
Azure Data Factory
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Vous intégrerez une équipe IT internationale composée d’architectes, de développeurs backend et frontend, d’ingénieurs QA, ainsi que de spécialistes en run et monitoring. Ensemble, nous concevons, développons et exploitons notre plateforme IoT cloud, déployée sur nos sites en France et en Europe. En tant que Backend Developer, vous rejoindrez l’équipe backend située dans la région lyonnaise. Cette équipe allie une solide expérience, une forte culture du partage des connaissances et une curiosité technologique. Vous contribuerez au développement de nouvelles fonctionnalités, à l’évolution continue de la plateforme, ainsi qu’à la fiabilité à long terme de nos services IoT. Objectifs et livrables Développement de services backend et d’API en C# / .NET, en respectant les bonnes pratiques et les standards de qualité. Participation aux rituels d’équipe tels que les estimations, les revues de sprint, les tests transverses et les rétrospectives. Amélioration continue de notre plateforme cloud Azure : mise à jour des frameworks, gestion des composants en fin de vie, conformité sécurité. Soutien aux méthodes de travail DevOps, Cloud et Agile. Exploration technologique pour identifier et intégrer les innovations pertinentes en collaboration avec les architectes, dans notre plateforme IoT. Autonomie dans l'exécution des tâches, tout en collaborant étroitement avec l’équipe pour affiner les besoins et proposer des solutions adaptées.
Mission freelance
246242/Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes
WorldWide People
Publiée le
IA Générative
3 mois
Nantes, Pays de la Loire
Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes Compétences et expériences demandées : Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. Connaissance de SQL Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Pratiquer une veille active sur vos domaines de compétence. Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Objectifs et livrables Activité principales attendues : Machine Learning / Deep Learning Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. Création et production de modèles d'apprentissage automatique industrialisables Traitement de données à grande échelle pour la création de jeux de données d'entraînement Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen Prompt engineering Bench via des solutions d'évaluation des modèles d'IA Gen Optimisation des solutions (paramétrage des modèles) Compétences demandées Compétences Niveau de compétence machine learning Confirmé python Confirmé IA générative Confirmé
Mission freelance
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier
WorldWide People
Publiée le
Microsoft SSIS
6 mois
320-400 €
Montpellier, Occitanie
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS. Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS.
Offre d'emploi
Consultant DevOps H/F
JEMS
Publiée le
40k-55k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Consultant(e) DevOps confirmé(e) capable d'intégrer le développement, l'assurance qualité et d'orchestrer les problématiques de scalabilité, d'automatisation et d'industrialisation. Votre devise : "réduire les interventions humaines pour améliorer la qualité et accélérer les livraisons" Vos missions seront : • Accompagner l'intégration et le déploiement continue des solutions (CI/CD) • Améliorer les processus, les automatiser et favoriser la qualité • Orchestrer et résoudre des problématiques de scalabilité, d'automatisation et d'industrialisation • Piloter, organiser et automatiser tous les tests afin de garantir le bon fonctionnement des solutions • Vous inscrire dans une démarche d'amélioration continue et d'agilité En tant que Consultant(e) DevOps vous maitrisez : • Des outils de construction et de virtualisation : Jenkins,Docker, Kubernetes • Des outils de monitoring : ELK (elastic, logstach, kibana), Prometheus, grafana, Nagios, Datadog • L'infrastructure as code : Ansible, Terraform • Les langages de programmation java, javascript, python, ruby, C/C++ • Des outils de qualité de code : Sonarqube • Le repository de code : Git, GitHub, SVN, Bitbucket • Les langages de scripting bash, shell, python • Les Systèmes d'exploitation Linux, Windows • Les Cloud provider Microsoft Azure, Google Cloud Platform (GCP),AmazonAWS, IBM • Les méthodes agiles • La sécurité des données Référence de l'offre : 2p0z5vmzxn
Offre d'emploi
Ingénieur Infrastructure Cloud AWS-KBS
KEONI CONSULTING
Publiée le
Plan de reprise d'activité (PRA)
Run
Transport Layer Security (TLS)
18 mois
20k-60k €
100-500 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Ingénieur Infrastructure Cloud AWS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’Ingénieur Infrastructure Cloud AWS est g arant du déploiement, de la configuration et de la maintenance opérationnelle des environnements cloud AWS, il assure la disponibilité, la performance et la sécurité des services d'infrastructure. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation Compétences clés ettendues : · Déploiement et administration de services AWS core (EC2, VPC, S3, RDS, Aurora, ECS) · Gestion réseau AWS : Subnets, NAT Gateway, Transit Gateway, Route53, ALB/NLB · Administration Kubernetes/EKS : mise à jour des nodes, AMIs, drivers, gestion des pods · Mise en œuvre des politiques de sécurité réseau (SG, NACL, WAF, Shield) · Supervision et maintien en condition opérationnelle (MCO/RUN) avec gestion des SLA · Mise à jour et patching des composants (OpenSearch, drivers DB, ingress controllers) · Gestion des sauvegardes, PRA et procédures de reprise d'activité · Chiffrement des données au repos et en transit (KMS, TLS) · Automatisation via scripts (Bash, Python) et IaC (Terraform) · Rédaction de documentation technique et de guides d'exploitation
Offre d'emploi
Power Platform Engineer en Full Remote (Lyon)
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k ¤
400-480 ¤
Île-de-France, France
Contexte de la mission : L’Ingénieur Low Code & Automatisation sera en charge de concevoir l’architecture et de superviser la migration de bout en bout de l’écosystème d’applications métier et d’automatisation, de Google Workspace vers Microsoft 365 (AppSheet et App Scripts vers Power Apps). Il devra développer et clarifier les cas d’usage de la Power Platform en contribuant à la conception de building blocks et en apportant un soutien fort à la fois à la migration factory et à la communauté des citizen developers. Tâches à réaliser : Accompagner la transition vers Power Platform (Power Automate, Power Apps) · Gérer le recueil des demandes, la gouvernance applicative et les politiques de gestion du cycle de vie · Soutenir le développement de Power Apps : soit en accompagnant / coachant les citizen developers soit en développant des applications low-code corporate · Préparer les opérations pérennes en déployant des outils pour mesurer : l’usage, les licences, les incidents / problèmes sur l’ensemble de la Power Platform · Stratégie d’intégration : concevoir les mécanismes de liaison entre les plateformes à l’aide de Power Automate et des services back-end (SAP, autres applications corporate) en construisant une bibliothèque de connecteurs · Encadrer les ressources du Global Competence Center et accompagner leur intégration dans l’organisation de planification de migration et de support
Mission freelance
Senior BA / QA Power Platform (Cloud)
SMH PARTICIPATION
Publiée le
Business Analysis
JIRA
Power Apps
1 an
100-450 €
Maisons-Alfort, Île-de-France
Dans le cadre d’un projet stratégique orienté Power Platform (version Cloud) , nous recherchons un Consultant Senior BA / QA pour intervenir sur des missions à forte valeur fonctionnelle. Le consultant jouera un rôle clé d’interface entre les équipes métiers et techniques, en assurant la bonne compréhension des besoins et leur traduction en solutions adaptées sur la plateforme. Missions principales Recueillir, analyser et formaliser les besoins métiers Rédiger les user stories et les spécifications fonctionnelles détaillées Participer à l’analyse des risques et à l’identification des problématiques projet Assurer un rôle de Business Analyst et QA (validation fonctionnelle) Challenger les équipes de développement grâce à une bonne compréhension fonctionnelle et technique Collaborer étroitement avec les équipes métiers et IT Contribuer à l’amélioration continue des processus et des solutions
Offre d'emploi
Data analyst (F/H/X)
Talents Finance
Publiée le
45k-55k €
Paris, France
Votre mission : Préparer un plan de travail de correction des données Recueillir toutes les données statiques pour l’ERP de l’entreprise Saisir et mettre à jour des données : produits (création article, désignation, paramètres, nomenclature, étapes produits), et compte (création compte fournisseurs et clients) Documenter l’ensemble des contraintes détectées et des actions correctives mise en place pour réunir l’ensemble des données. Catégoriser les données afin de les exploiter au mieux Créer et mettre en place des formulaires de collecte de données et de validation Créer et mettre à jour des manuels de gestion de données Vérifier de la cohérence des données Attribuer des priorités aux demandes des différents services Émettre un tableau de suivi de performance de la gestion data Analyser des données existantes et rechercher des écarts de données Modéliser et assurer les mises à jour régulières de la base de données Analyser et vulgariser les données pour restituer les résultats aux non-spécialistes de la data Autres informations : Département : Technologie de l’information Type de contrat : Contrat à durée indéterminée (CDI), Temps plein Durée du contrat : indéterminée Date de début : dès que possible Horaire : 8H00-12H00 et de 12H50-16H50 du lundi au jeudi et 8H00-12H00 et de 12H50-15H50 le vendredi (soit un total de 39H par semaine) Déplacement : à Nogent-sur-Seine Télétravail : non Poste ouvert aux personnes en situation de handicap
Offre d'emploi
Data Product Manager – CRM & Customer Knowledge
KP2i
Publiée le
BI
Confluence
CRM
1 an
40k-45k €
400-720 €
Île-de-France, France
Transformation Data & Marketing – Environnement internationalContexte Grand groupe international en forte transformation digitale recherche un(e) Data Product Manager pour piloter des initiatives stratégiques liées à la connaissance client et à la performance CRM. Rattaché(e) à une organisation Data en mode Tribe / Feature Teams, le poste est au croisement des équipes Marketing, CRM, Produit et Data Engineering. L’objectif est de structurer et industrialiser des produits data à fort impact business, tout en sécurisant des chantiers de transformation majeurs. Finalité du poste Piloter des produits data orientés connaissance client et activation CRM afin de : Améliorer la performance e-commerce Optimiser la valeur client Renforcer la qualité et l’exploitabilité des données marketing Sécuriser des programmes de transformation Martech Missions principales1. Pilotage d’initiatives stratégiques Contribuer au cadrage de programmes structurants liés à la connaissance client Industrialiser les audiences prioritaires et structurer les signaux comportementaux Améliorer la couverture et la qualité de la base contactable Mettre en place des mécanismes de mesure de valeur incrémentale Piloter une migration de plateforme marketing automation (refonte des flux, modèles de données, segments, gouvernance) 2. Coordination transverse Animer les instances de pilotage (comités, ateliers de priorisation, steering committees) Aligner les visions business, produit et technique Assurer la fluidité des échanges entre CRM, Marketing, Data et Engineering Clarifier les rôles et responsabilités (RACI) 3. Pilotage produit & delivery Co-construire les roadmaps en collaboration avec les Product Owners Prioriser selon l’impact business et la création de valeur Suivre les jalons, dépendances et risques Garantir la qualité et le respect des délais Participer aux rituels agiles (PI Planning, Sprint Reviews) 4. Reporting & communication Assurer un reporting régulier auprès des sponsors et du management Préparer les supports de pilotage (roadmap, bilans, comités stratégiques) Communiquer de manière claire et pédagogique sur les enjeux data
Mission freelance
Administrateur et Paramétreur Progiciel F/H
SOFTEAM
Publiée le
AIX (Advanced Interactive eXecutive)
DevOps
Linux
3 mois
400-550 €
Paris, France
• Rédige des analyses d’impact de la conception du produit sur l’architecture fonctionnelle SI • Intègre les contraintes techniques et répond aux questions techniques • Co- construit la base de connaissance • Rédige des dossiers de conception. • Analyse des impacts de montée de version de socle et de patchs de la solution et en fournit en analyse détaillée. • Paramètre, configure et customise le progiciel • Contribue aux recettes techniques et rédige les fiches d’anomalies • Support assuré auprès des équipes projet Réalise et maintien des scripts entre le progiciel et l’écosystème SI. • Rédige et envoie des PV d’installation lié au déploiement des développements, corrections et patchs dans les différents environnements • Rédige et envoie des PV d’installation lié à la réalisation des migrations majeures / montée de version éditeur Les environnements techniques relatifs au projet sont les suivants : - AIX / Linux / SGBD Oracle - Script shell, SQL / PL-SQL / C - JavaScript, DevOps (GIT / Artifactory / GCP) - Sendmail / Web services / gestion de certificat - Le progiciel s’appuie sur des briques Oracle Forms & Oracle ADF / Tomcat / Weblogic qui seront progressivement remplacés par des solutions Angular / Apache httpd / Tomcat / nodejs Connaissance des progiciels IMX Intra / AD / Extranet
Offre d'emploi
Expert Ansible Automation Platform
VISIAN
Publiée le
Ansible
Kubernetes
1 an
Île-de-France, France
Contexte Le bénéficiaire souhaite une prestation d'expertise afin de pouvoir administrer les services CD basés sur Ansible Automation Platform et Release dans un environnement de grande échelle (10 000 users). La pratique des produits Gitlab, Gitlab-CI, Jenkins, Artifactory, Docker, Kubernetes, Openshift et le développement en Python/Go est nécessaire à la mission. Missions Administration des services et maîtrise des objets associés. Intégration des évolutions fonctionnelles (montée de version). Participation aux révisions d'architecture technique. Expertise des intégrations dans le SI d'une grande institution bancaire (Vault, IAM, LDAP, SSO, ...). Développement en Python et en Go pour l'automatisation.
Offre d'emploi
Développeur(se) Fullstack IA (H/F)
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Ansible
40k-55k €
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Test Lead
Management Square
Publiée le
Gestion des risques
1 an
380-430 €
Lille, Hauts-de-France
Nous sommes à la recherche d'une expertise en leadership de test pour un projet à fort enjeu dans une Institution publique. Ce projet nécessite la rédaction de stratégies de test robustes et efficaces pour garantir la qualité et la fiabilité des livrables. L'expertise recherchée devra être capable de comprendre les exigences complexes du secteur public et de les traduire en plans de test détaillés. Nous attendons également une capacité à collaborer avec diverses équipes pour assurer une intégration fluide des processus de test. La gestion des risques et l'optimisation des ressources seront des aspects clés de ce rôle
Mission freelance
Développeur NIFI
Nicholson SAS
Publiée le
Apache NiFi
BigQuery
CSV
9 mois
450 €
Île-de-France, France
Bonjour, Nous recherchons un Développeur Apache NiFi pour intervenir sur une mission en Île-de-France. 📍 Localisation : Île-de-France (2 jours/semaine sur site) 💰 TJM : 450 € 📅 Démarrage : 01/04/2026 📆 Fin de mission : 31/12/2026 🚀 Missions Au sein de l’équipe Run Flux , vous interviendrez sur des environnements critiques autour des plateformes Apache NiFi (environ 100 instances). À ce titre, vous serez en charge de : La mise en place, l’administration et la sécurisation des plateformes NiFi La conception et le développement de flux de données critiques L’automatisation des déploiements sur des environnements Cloud (GCP / Azure) en IaaS & CaaS Le monitoring de la disponibilité et des performances des plateformes L’automatisation avancée via scripting (Groovy) Contexte 24/7 , avec interventions possibles en heures non ouvrées selon la criticité. 🛠️ Environnement technique Apache NiFi (expertise avancée requise) Groovy / Java (scripting & automatisation) GitLab / GitHub Bases de données : Oracle, SQL Server, PostgreSQL Data & stockage : BigQuery, BigTable Langages & formats : SQL, JSON, XML, CSV Environnements Cloud : GCP / Azure 🎯 Compétences attendues Maîtrise des architectures de flux de données et des plateformes NiFi Capacité à concevoir, industrialiser et documenter des solutions techniques Autonomie dans la résolution de problématiques techniques complexes Bonne compréhension des enjeux de qualité, sécurité et traçabilité des données Expérience en environnement DevOps 🤝 Soft skills Excellente communication (écrite et orale en français) Esprit d’analyse et force de proposition Rigueur, respect des délais et sens de la qualité Esprit d’équipe et partage des connaissances Démarche d’amélioration continue 🎓 Profil recherché Formation Bac+5 (école d’ingénieur ou université) ou équivalent Minimum 3 ans d’expérience sur des problématiques de flux/data Une expérience dans le secteur retail / grande distribution est un plus 🔎 Profil cible Développeur Apache NiFi Expérience : 3 ans et + Compétences clés : Apache NiFi, Groovy
Offre d'emploi
Product Owner IA Senior – Transformation des Centres de Relation Client
SMILE
Publiée le
Data analysis
Transformation digitale
3 mois
40k-58k €
400-550 €
Paris, France
Dans le cadre de ses travaux de transformation IA, un grand groupe bancaire français recherche un Product Owner Senior pour accompagner la transformation de ses Centres de Relation Clients (CRC) via l’intégration de cas d’usage IA à forte valeur ajoutée. Le PO sera intégré à une direction Data/IA transverse , en lien direct avec les équipes métier CRC, les UX designers, les experts data (data scientists, data engineers), les équipes IT et les établissements du réseau. Les Centres de Relation Client représentent un axe stratégique de la transformation de l’expérience client. L’enjeu est de structurer, prioriser et piloter des cas d’usage IA dans trois grands domaines : Traitement de la Voix (speech-to-text, détection d’intention, analyse d’émotion) ; Analyse des Mails et Courriers (NLP, routage intelligent, résumé, classification) ; Déploiement ou amélioration d’Agents conversationnels (LLM, chatbot, voicebot) . Le Product Owner sera directement responsable de la mise en œuvre de plusieurs projets IA sur ce périmètre.
Offre d'emploi
Lead BA
CAT-AMANIA
Publiée le
API
Business Analyst
Data analysis
2 ans
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous sommes actuellement à la recherche d'un Lead BA pour l'un de nos clients sur le bassin niortais : Stratégie • S’approprier la stratégie de l’entreprise, accompagner sa déclinaison en enjeux métier et fonctionnels. • Influer ou confirmer la trajectoire SI au regard des enjeux Métiers et SI. • Challenger les visions fonctionnelles du SI, les processus et les outillages associés Études • Porter ou contribuer à des études à fort enjeu fonctionnel avec les différentes parties prenantes (métiers, architecte, BA…). • Porter l’architecture fonctionnelle du SI, assurer la maîtrise, la cohérence et la modélisation d’un ou plusieurs domaines fonctionnels SI (Fonctions, Datas, API, trajectoire) et contribuer à l’architecture applicative. • Piloter la qualité et le bon usage des fonctions délivrées et des Datas tout au long du cycle de vie des produits et s’assurer de la conformité juridique, de la confidentialité, de la sécurité et de l’accessibilité des données. Communication Métiers • Apporter une valeur ajoutée aux Directions Métiers par une proximité durable et la prise en compte des besoins des utilisateurs finaux • Anticiper, identifier, s’approprier et consolider les enjeux Métiers ayant un impact sur le SI par une vision transverse. Veille • Grace à une veille active, éclairer les ambitions et le champ du possible • Porter des actions de veille sur la profession et sur les visions SI Changement/acculturation • Promouvoir le plein usage de la Data (data au cœur). • Accompagner les Squads dans la mise en œuvre des solutions en apportant une vision transverse à moyen terme des enjeux et en s’assurant du bon respect du cadre de cohérence fonctionnelle • S'informer sur l’usage des outils et apporter ponctuellement un soutien à l’accompagnement au changement • Animer des séquences de partage et d’acculturation auprès de parties prenantes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2771 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois