Trouvez votre prochaine offre d’emploi ou de mission Deep Learning
Votre recherche renvoie 14 résultats.
Astuce
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance Product Owner Data (H/F)
Accelite
Publiée le
Apache Hive
Apache Kafka
Apache Maven
1 an
450-600 €
Paris, France
En tant que Product Owner DATA (H/F), vous intervenez au sein de la filiale assurance d’une grande banque, pour participer à la construction des entrepôts de données du domaine Protection au sein du datalake.
Eléments de dimensionnement :
Périmètre d’intervention : appui aux activités sur l’ensemble de la Ligne Métier Assurance en France et à l’International pour le domaine Protection (tous clients, tous distributeurs / canaux)
Direction des projets DATAHUB du périmètre Protection au sein du Datalake
Vous aurez pour missions :
- (Faire) construire les fondations et les usages sur ce Domaine en assurant la disponibilité et la qualité des données pour l’ensemble des cas d’usage métiers de ASSU et de nos distributeurs
-Travailler en étroite collaboration avec l’IT pour mettre en œuvre la stratégie data de ASSU
-Accompagner les utilisateurs sur le Domaine
Finalités de la Prestation :
-Améliorer le partage de connaissances quantitatives au sein d’ASSU concernant le Domaine
-Améliorer la factorisation des investissements IT pour augmenter le reuse
-Réduire le coût de manipulation des données par les métiers
-Réduire les problèmes de cohérence entre les métiers
-Préparer les investissements pour les futurs usages
Compétences recherchées :
-Vous disposez d’une expérience de + 10 ans minimum
-Connaissance sur la protection souhaitée mais non obligatoire
-Connaissance et expérience dans la gestion de projet en V et en agile
Techniques :
-Maîtrise des outils décisionnels (Business Object, Tableau, SAS, R, Power BI, etc.)
-Maîtrise des enjeux autour des entrepôts de données et de leur construction
-Connaissance de technologies No-SQL mainstream : Hive, Spark, etc.
Projets data :
-Animation de grands projets data transverses : capacité d’analyse et de synthèse, regard critique sur les demandes utilisateurs, sensibilisation aux enjeux RGPD, gestion des utilisateurs, maîtrise de la communication via la documentation type du Datalake, animation d’ateliers de spécifications, réunions de restitutions
-Réalisation de grands projets data transverses : interface entre les utilisateurs et l’IT afin de définir les travaux de l’équipe MOE (rédiger les US) et de les valider (recette utilisateur)
-Qualités rédactionnelles et documentaires suffisantes pour communiquer aux utilisateurs et aux différentes parties prenantes sur le domaine
-Sensibilisation à la Gouvernance des Données
-Être un ancien utilisateur d’un Datalake et / ou de plusieurs autres types d’entrepôts (SAS, Oracle)
-Être un ancien utilisateur SAS, R, Power BI, Tableau, BO, etc.
-Report et remontée de vigilance au PO du Datalake sur le domaine
Comportemental :
-Souhait de s’inscrire dans un projet de transformation d’entreprise
-Capacité à donner du feedback à l’équipe Feature Team Data et à travailler quotidiennement avec l’IT
-Capacité à prendre du feedback auprès des utilisateurs et à en décliner ou pas un plan d’actions
-Capacité à faire le lien entre les métiers et les ressources MOE, MOA
-Entrepreneur(se), passionné(e), curieux(se)

Mission freelance Senior PMO/Business analyst - data migration
RTV Consulting
Publiée le
Adobe Campaign
Agile Scrum
API REST
1 an
500-600 €
Paris, France
Dans le cadre de la mise en place d’un nouveau ’data model’ de gestion des ’contacts’ et ’partners’, vous serez en charge de:
- Assurer la qualité des livraisons dans les temps
- Gestion et priorisation du backlog global en coordination avec les POs et gestion des dépendances des évolutions
- Proposer un design de la solution pour atteindre les objectifs du projet
- Assurer la rédaction des Users Stories pour chaque application
- Assurer le suivi du developpement de la solution avec les développeurs
- Gestion des tests avec les stakeholders jusqu’à la mise en production
- Gestion de la migration et du nettoyage des données
- Parti prennante des comité de projet hebdomadaires et préparation des supports des steering committees
- Fournir la bonne communication sur les progrès du projet aux stakeholders

Offre d'emploi Product Owner Data (H/F)
Accelite
Publiée le
Apache Hive
Apache Kafka
Apache Maven
45k-65k €
Paris, France
En tant que Product Owner DATA (H/F), vous intervenez au sein de la filiale assurance d’une grande banque, pour participer à la construction des entrepôts de données du domaine Protection au sein du datalake.
Eléments de dimensionnement :
Périmètre d’intervention : appui aux activités sur l’ensemble de la Ligne Métier Assurance en France et à l’International pour le domaine Protection (tous clients, tous distributeurs / canaux)
Direction des projets DATAHUB du périmètre Protection au sein du Datalake
Vous aurez pour missions :
- (Faire) construire les fondations et les usages sur ce Domaine en assurant la disponibilité et la qualité des données pour l’ensemble des cas d’usage métiers de ASSU et de nos distributeurs
-Travailler en étroite collaboration avec l’IT pour mettre en œuvre la stratégie data de ASSU
-Accompagner les utilisateurs sur le Domaine
Finalités de la Prestation :
-Améliorer le partage de connaissances quantitatives au sein d’ASSU concernant le Domaine
-Améliorer la factorisation des investissements IT pour augmenter le reuse
-Réduire le coût de manipulation des données par les métiers
-Réduire les problèmes de cohérence entre les métiers
-Préparer les investissements pour les futurs usages
Compétences recherchées :
-Vous disposez d’une expérience de + 10 ans minimum
-Connaissance sur la protection souhaitée mais non obligatoire
-Connaissance et expérience dans la gestion de projet en V et en agile
Techniques :
-Maîtrise des outils décisionnels (Business Object, Tableau, SAS, R, Power BI, etc.)
-Maîtrise des enjeux autour des entrepôts de données et de leur construction
-Connaissance de technologies No-SQL mainstream : Hive, Spark, etc.
Projets data :
-Animation de grands projets data transverses : capacité d’analyse et de synthèse, regard critique sur les demandes utilisateurs, sensibilisation aux enjeux RGPD, gestion des utilisateurs, maîtrise de la communication via la documentation type du Datalake, animation d’ateliers de spécifications, réunions de restitutions
-Réalisation de grands projets data transverses : interface entre les utilisateurs et l’IT afin de définir les travaux de l’équipe MOE (rédiger les US) et de les valider (recette utilisateur)
-Qualités rédactionnelles et documentaires suffisantes pour communiquer aux utilisateurs et aux différentes parties prenantes sur le domaine
-Sensibilisation à la Gouvernance des Données
-Être un ancien utilisateur d’un Datalake et / ou de plusieurs autres types d’entrepôts (SAS, Oracle)
-Être un ancien utilisateur SAS, R, Power BI, Tableau, BO, etc.
-Report et remontée de vigilance au PO du Datalake sur le domaine
Comportemental :
-Souhait de s’inscrire dans un projet de transformation d’entreprise
-Capacité à donner du feedback à l’équipe Feature Team Data et à travailler quotidiennement avec l’IT
-Capacité à prendre du feedback auprès des utilisateurs et à en décliner ou pas un plan d’actions
-Capacité à faire le lien entre les métiers et les ressources MOE, MOA
-Entrepreneur(se), passionné(e), curieux(se)

Offre d'emploi Data Quality Analyst (H/F)
Accelite
Publiée le
Agile Scrum
Analyse
Base de données
40k-50k €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations.
Les missions sont :
Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire.
Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation.
Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence.
Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord.
Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc).
Compétences recherchées :
-Maîtrise Tableau / PowerBI (optionnel)
-Maîtrise Dataiku
-Maitrise Python
-Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL)
-Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage)
-Connaissance en méta data management, type outil Talend Data Catalogue
-Aisance sur les outils agile scrum : Jira / Confluence
-Maitrise de l’anglais

Mission freelance Data Quality Analyst (H/F) - Tableau / Dataiku
Accelite
Publiée le
Agile Scrum
Analyse
Big Data
1 an
400-500 €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations.
Les missions sont :
Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire.
Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation.
Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence.
Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord.
Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc).
Compétences recherchées :
-Maîtrise Tableau / PowerBI (optionnel)
-Maîtrise Dataiku
-Maitrise Python
-Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL)
-Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage)
-Connaissance en méta data management, type outil Talend Data Catalogue
-Aisance sur les outils agile scrum : Jira / Confluence
-Maitrise de l’anglais

Mission freelance Data scientist Sénior (Quasi full remote Paris ou Bordeaux)
SURICATE IT
Publiée le
Data science
Deep Learning
Machine Learning
2 ans
500-680 €
Paris, France
Votre principale mission, au sein de nos équipes, sera :
le prototypage, l’itération, et la mise en production des algorithmes
2 jours de présentiel à Paris ou Bordeaux
Mission a pourvoir ASAP
Mission très longue
Un eexpérience de mise en prod est indispensable pour ce poste
Expérience en Start-up et / ou Scale-up appréciée

Mission freelance Data-Scientist
CAT-AMANIA
Publiée le
2 ans
450-650 €
Nanterre, Île-de-France
Au sein du Datalab Groupe, intervention sur des projets de R&D et d’industrialisation de modèles de ML.
Contexte projet : maîtrise de la charge de sinistres, de lutte anti-fraude, des risques climatiques.
Mission :
- Encadrement de Data Scientist,
- Référent technique sur les travaux d’industrialisation,
- Rédaction et ou supervision de documentation
- Proposition de nouveaux outils et de nouvelles méthodes
- Amélioration continue sur les modèles existants
Environnement technique :
Python (pandas, scikit, pyod, geopandas, kepler), Git, Docker, CI/CD, Mlflow, Databricks, sphinx, Pycharm, Deep Learning (Tensorflow Pytorch)
+ si possible : R, QlikSense

Mission freelance Expert IA
STHREE SAS pour HUXLEY
Publiée le
1 an
700 €
Île-de-France, France
Collecter et préparer les données
Explorer et analyser les données pour comprendre les tendances et les performances
Effectuer des classifications grâce à des algorithmes de deep learning
Mettre en œuvre une démarche MLOps complète, de gestion du cycle de vie des modèles de bout en bout pour automatiser les processus d'entreprise et améliorer leur efficacité
Communiquer les résultats à des spécialistes
Participer à l'organisation et au pilotage d'un projet de data science / IA

Mission freelance Data Scientist
Cherry Pick
Publiée le
6 mois
550-600 €
Nanterre, Île-de-France
Cherry Pick est à la recherche d’un Data Scientist pour l’un de ses clients dans le secteur de l’assurance.
Missions :
- Superviser techniquement les travaux des Data Scientist junior et stagiaires de
l’équipe (cadrage technique, challenge et optimisation du code, méthodologie
modélisation)
- Être le référent technique de l’équipe concernant les travaux d’industrialisation
des modèles effectués par l’IT de Groupama, en challengeant notamment leurs
approches
- Contribuer ponctuellement sur quelques projets de Data Science
- Rédiger et/ou superviser la documentation en conformité avec les normes et
standards de l’équipe
- Proposer des nouveaux outils, méthodes pour faire monter en compétence
l’équipe
- Apporter un œil nouveau dans l’amélioration continue des modèles développés
par l’équipe (utilisation de données non structurées, données externes )
Livrables
Données, Modèles programmes, résultats
Note d’analyse de ces résultats
Emissions de besoins
Présentations pour le suivi des différents projets
Supports divers pour les échanges avec les métiers et pour les comités de
pilotage.
Documentation de l’ensemble de la démarche dès le cadrage jusqu’au scripts
des modèles.
Expertises :
ML supervisé et non supervisé (obligatoire), modélisation de risques climatiques
(obligatoire), Computer Vision (souhaitable), modèles de détection d’outliers
(souhaitable), techniques d’interprétabilité (souhaitable), LLM (souhaitable)
Stack technique: Python (pandas, scikit, pyod, geopandas, kepler), Git, Docker, CI/CD,
Mlflow, Databricks, sphinx, Pycharm, Deep Learning (Tensorflow Pytorch)
+ si possible : R, QlikSense

Offre d'emploi Intégration de l'IA dans un pipeline XR et Jumeau Numérique H/F H/F
INETUM
Publiée le
Saint-Ouen-sur-Seine, Île-de-France
Niveau d’études : Bac+5
Durée du stage : 26/30 semaines
Date de début : à partir de janvier 2023
Lieu : Région Parisienne, Toulouse ou Bordeaux
Description de l’entité
Acteur majeur de la transformation digitale, Inetum Business Solutions Industrie 4.0 est l’entité du Groupe Inetum dédiée à l’expertise des solutions de l’Industrie 4.0.
Vous aurez l’occasion de participer à des projets d'accompagnement et d'industrialisation de solutions digitales innovantes appliquées à l'industrie : Continuité Numérique, Digital Twin, intégration AR/VR, Plateforme réalité mixte industrielle et connectivité couches entreprises IT/OT (PLM, IoT, MES, MDM, SCADA et automates, infrastructure ...)
Votre mission
Sous la supervision directe d'un Manager Industrie 4.0, et dans le cadre de travaux internes et de projets clients, vous travaillerez sur l’intégration des nouvelles technologies comme l’IA ou le Deep Learning pour simplifier la chaine de traitement XR et faciliter l’accostage des Jumeaux Numériques.
Vous intégrerez une équipe projet jeune, dynamique, travaillant en Agile sur des activités de type :
• Mise en place technique et opérationnelle de plateformes XR et 3D (Unity, Blender, 3DSMax, Maya, Twinzo, Intraverse@Inetum …)
• Développement de scripts de simplification de traitement des données se basant sur les technologies d’IA, de deep Learning … ainsi que sur leur passage en Proof of Concept et MVP industriel
• Analyser et rédiger les spécifications techniques,
• Réaliser le développement/la configuration,
• Assurer l'intégration et la mise en production,
• Exécuter la recette/tests unitaire,
• Mise en place de démonstrateurs techniques, Promotion et démonstration,

Offre d'emploi Docteur en Géosciences & IA H/F
AKKODIS
Publiée le
38k-45k €
Pau, Nouvelle-Aquitaine
La ligne de service Consulting & Solutions d'Akkodis France renforce ses équipes en région paloise et recrute un Docteur en Géosciences et Intelligence Artificielle H/F en CDI à Pau.
Vous intégrez Akkodis Research qui est le centre de R&D du groupe Akkodis. Organisés en 10 lignes d'innovation réparties sur les axes Smarter Future & Cleaner Future, nous développons, en nous appuyant sur nos experts et référents techniques, les projets technologiques de demain.
Description de la mission :
- Accompagnement dans l'orientation stratégique des projets et dans la constitution des équipes projet
- Gestion de projets liés aux Géosciences et à l'IA
- Mise à jour régulière de la feuille de route et du planning des projets
- Coordination et supervision de l'équipe projet.
- Montée en compétences des collaborateurs
- Promotion de la collaboration et de l'agilité au sein de l'équipe
- Organisation et distribution des activités
- Rédaction d'une documentation complète de l'outil
- Rédaction du dossier CIR (Crédit Impôt Recherche) en collaboration avec l'équipe R&D
- Rédaction d'articles scientifiques
- Recherche de partenaires (académiques et industriels) et de financements
- Contribution à la réponse aux appels d'offres
- Veille sur l'évolution de l'état de l'art en Géosciences et Deep Learning
Mission freelance Ingénieur Réseaux Sécurité Fire Wall (Palo Alto)
ENGIT
Publiée le
1 an
Savigny-le-Temple, Île-de-France
engIT recherche, pour l’accompagner dans ses projets, un ingénieur Réseaux et sécurité, disposant d’une expertise en déploiement de Firewall et plus particulièrement Palo Alto.
engIT est une jeune société d’ingénierie, dédiée à l’innovation, animée par des passionnés de technologies et d’innovation en IT créée en 2017 à Sophia Antipolis et aujourd’hui présente à Nice, Aix, Lille, Paris et Monaco...
Objets connectés, IA, Big Data, Deep Learning, véhicules autonomes, réalité augmentée, UX, logiciels embarqués, cyber sécurité, Blockchain, Cloud, mobilité, ne sont qu’une partie de nos centres d’interêts.

Offre d'emploi MACHINE LEARNING ENGINEER GCP H/F
Frank Recruitment Group Services Ltd
Publiée le
35k-50k €
Bordeaux, Nouvelle-Aquitaine
FRG Consulting rechercher pour l'un de ses clients, ESN dynamique et en pleine croissance, comptant une équipe d'environ 20 collaborateurs passionnés par les technologies Cloud, un Machine Learning Engineer H/F. Le candidat idéal aura au moins trois ans d'expérience dans le domaine, avec une solide expertise en codage, une connaissance approfondie des environnements Cloud (GCP et AWS) et une compétence avérée dans la mise en œuvre de tests unitaires.
Responsabilités :
Concevoir, développer et mettre en œuvre des solutions de Machine Learning
Collaborer avec les équipes de développement pour intégrer des modèles ML dans des applications Cloud
Optimiser les modèles et les algorithmes pour améliorer leurs performances
Assurer la qualité du code en mettant en place des tests unitaires
Participer à la conception et à l'amélioration des architectures Cloud pour les solutions ML
Exigences :
Au moins trois ans d'expérience professionnelle dans le domaine du Machine Learning
Excellentes compétences en programmation (Python, Java, ou équivalent)
Maîtrise des environnements Cloud, notamment GCP et AWS
Expérience dans le déploiement de modèles ML en production
Excellentes compétences en tests unitaires et en assurance qualité.
Connaissance des bibliothèques de machine learning telles que TensorFlow, PyTorch, Scikit-Learn, etc.
Fortes compétences en résolution de problèmes et en analyse
Diplôme en informatique, en intelligence artificielle, en mathématiques ou dans un domaine connexe
Compétences supplémentaires appréciées :
Expérience en ingénierie logicielle, développement Web ou DevOps
Connaissances en ingénierie des données et en manipulation de larges ensembles de données
Familiarité avec d'autres services Cloud tels que Azure
Compétences en apprentissage profond (Deep Learning) et en vision par ordinateur
Avantages :
Environnement de travail stimulant et innovant
Possibilité de contribuer à des projets variés et stimulants
Formation continue et opportunités de développement professionnel
Si vous êtes passionné par le Machine Learning, que vous possédez les compétences requises et que vous recherchez un environnement dynamique pour développer votre carrière, n'hésitez pas à postuler.

Mission freelance data scientist machine learning python
Innov and Co
Publiée le
1 an
400-650 €
Puteaux, Île-de-France
Projets de R&D et d’industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab.
Objet de la mission :
Dans le cadre de l’accélération des expérimentations et préparation à l’industrialisation des modèles de Machine Learning, le portefeuille projets est constitué de plusieurs projets de Data Science sur les sujets suivant :
- Détection de la Fraude
- Analyse d’image & Gestion des sinistres
- Provisionnement
- Pricing (avec IA)
- Prise en compte des risques climatiques
Le consultant sera responsable de la cohérence technique des développements des projets de Data Science de l’équipe, du cadrage au déploiement en production.
Missions principales du consultant :
- Superviser techniquement les travaux des Data Scientist junior et stagiaires de l’équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation)
- Être le référent technique de l’équipe concernant les travaux d’industrialisation des modèles effectués par l’IT, en challengeant notamment leurs approches
- Contribuer ponctuellement sur quelques projets de Data Science
- Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l’équipe
- Proposer des nouveaux outils, méthodes pour faire monter en compétence l’équipe
- Apporter un œil nouveau dans l’amélioration continue des modèles développés par l’équipe (utilisation de données non structurées, données externes )
En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets. Le mode de fonctionnement est Agile et la compréhension des métiers de l’assurance santé est souhaitable. Echange fréquent et régulier avec le métier portant les projets afin de s’assurer de la pertinence de la modélisation et de la cohérence des résultats.
Livrables :
• Données, Modèles programmes, résultats
• Note d’analyse de ces résultats
• Emissions de besoins
• Présentations pour le suivi des différents projets
• Supports divers pour les échanges avec les métiers et pour les comités de pilotage.
• Documentation de l’ensemble de la démarche dès le cadrage jusqu’au scripts des modèles.
Expertises requises :
ML supervisé et non supervisé (obligatoire), modélisation de risques climatiques (obligatoire), Computer Vision (souhaitable), modèles de détection d’outliers (souhaitable), techniques d’interprétabilité (souhaitable), LLM (souhaitable)
Stack technique: Python (pandas, scikit, pyod, geopandas, kepler), Git, Docker, CI/CD, Mlflow, Databricks, sphinx, Pycharm, Deep Learning (Tensorflow Pytorch)
+ si possible : R, QlikSense
Qualité attendue :
Esprit de synthèse et d’analyse en vue des différentes présentations de résultats, Qualité du code, rédaction de SFD des programmes et projets de Data Science, rigueur et qualité de documentation, Aisance relationnelle avec les interlocuteurs sur ces projets. Flexibilité pour un fonctionnement en mode agile et pour suivre le rythme accéléré des expérimentations. Adaptation aux contraintes organisationnelles des équipes travaillant sur le sujet et à l’organisation de l’entreprise. Haut degré d’autonomie et capacité de travail en équipe. Curiosité pour les métiers attendue.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !