L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 585 résultats.
Offre d'emploi
Concepteur Développeur Full Stack (JSP / EJB / Maven / Bootstrap) - Sophia Antipolis (H/F)
Publiée le
Apache Maven
Boostrap
Entreprise Java Bean (EJB)
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🧩 Contexte de la mission Dans le cadre de la maintenance et de l’évolution du projet Bilans Service , nous recherchons un Développeur Full Stack afin de renforcer l’équipe en charge de la Tierce Maintenance Applicative (TMA) . Le consultant interviendra sur la conception, le développement et les tests des évolutions applicatives ainsi que sur la correction d’anomalies. ⚙️ Objectifs et missions principales Le prestataire aura pour responsabilités : Participer à l’analyse des spécifications fonctionnelles et techniques. Développer de nouvelles fonctionnalités conformément aux besoins exprimés. Assurer la correction et l’amélioration des applications existantes. Réaliser les tests unitaires et d’intégration. Documenter les développements réalisés. Contribuer à la qualité et à la stabilité des versions livrées. 🧠 Compétences techniques requises JSP / Servlet / EJB – Confirmé – Impératif JUnit – Confirmé – Impératif Maven / Git – Confirmé – Impératif Bootstrap – Confirmé – Important
Offre d'emploi
Data Engineer
Publiée le
Azure
DevOps
Microsoft Fabric
6 mois
Paris, France
Télétravail partiel
Mission Data Engineer Client: Secteur Minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum (renouvelable) Démarrage : Dès que possible Équipe à taille humaine Contexte de la mission Dans le cadre d’un vaste programme de transformation data, notre client – un acteur international du secteur des minéraux – déploie une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination du programme, Tech Enablers : mise en place des briques techniques de la plateforme, Data Use Cases : livraison de cas d’usage métiers concrets à forte valeur ajoutée. L’objectif est double : Livrer 2 à 3 cas d’usage prioritaires , Implémenter une plateforme data moderne , basée sur Microsoft Fabric et intégrée à l’écosystème Azure , tout en instaurant une gouvernance agile (Scrum, PI Planning). Rôle : Data Engineer Vous interviendrez au sein de l’équipe Data pour : Concevoir et développer les pipelines d’ingestion, de transformation et de mise en qualité des données , Gérer les flux de données batch et streaming , Optimiser les performances et la robustesse des traitements, Collaborer avec les équipes architecture , delivery et use cases pour assurer la cohérence de bout en bout, Contribuer à la mise en place des bonnes pratiques DevOps / DataOps dans un environnement agile. Compétences recherchées Techniques : Développement de pipelines de données (batch & streaming), Formats : Parquet, JSON, Delta, Maîtrise de l’écosystème Azure / Microsoft Fabric , Bon niveau en SQL et Python , Outils : Spark , Databricks , Azure Data Factory , Git , Docker , Airflow , Méthodologiques : Environnement Agile / Scrum , avec participation aux cérémonies PI Planning , Connaissance des pratiques DevOps / DataOps , Langues : Anglais courant obligatoire (environnement international). Profil recherché Data Engineer confirmé , avec 3 à 5 ans d’expérience dans des environnements cloud et data modernes, Esprit d’équipe, sens de l’organisation, autonomie et rigueur.
Mission freelance
[TPR] Architecte Data et IA - Big Data (8/12 XP)
Publiée le
Big Data
RGPD
Stratégie
3 mois
400-730 €
Paris, France
Télétravail partiel
Dans le cadre du plan stratégique du Groupe pour le secteur bancaire du Groupe, ce dernier joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, ils sont créés un département département, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. L'équipe est composée de six équipes : Innovation Exposition, Innovation Factory, APEX, Smart Auto Factory, Data Analytics and Management Platforms et le Centre de Compétence en IA. Ce dernier est chargé de développer et de maintenir les compétences en Intelligence Artificielle au sein du département A3I. L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC. Compétences clés : • Expertise en gouvernance IA, ML Ops, auditabilité et traçabilité des modèles • Maîtrise des enjeux réglementaires et éthiques (AI Act, CNIL, RGPD). • Capacité à structurer des dispositifs de veille IA et à animer des communautés d’experts • Leadership, esprit critique, rigueur, capacité à influencer et à collaborer en environnement complexe Livrables : - Conseil et orientation sur les décisions stratégiques à prendre sur le plan stratégique de la banque en matière d'IA - Conseil sur l'organisation, le positionnement et le dimensionnement de l'équipe AICC vis à vis des besoins Métiers - Structuration et formalisation de la roadmap 2026 de l"AICC
Mission freelance
Consultant SAP Data Migration
Publiée le
SAP
9 mois
Île-de-France, France
Télétravail partiel
Mission de reprise des données pour le stream Support : • Une bonne connaissance du secteur aéronautique, de ses contraintes opérationnelles et règlementaires. • Une bonne connaissance des fondamentaux du « DataManagement » et du cycle de vie de la donnée • Une maitrise des outils usuels de gestion de la donnée : Innovera, Knime, Hana Studio et PWBI, … • Une connaissance de l’ERP SAP S4 • Développement de vues Hana Studio. • Une connaissance des tables SAP serait un réel plus Durée 9 mois Lieu 91 TT en TT 2 jrs Début mission : novembre
Offre d'emploi
Scrum Master - DATA
Publiée le
Cloudera
Google Cloud Platform (GCP)
Kanban
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
📢 Offre de mission – Scrum Master Data Au sein d’un département IT Data, vous interviendrez sur la mise en place et le pilotage d’un cadre Agile pour l’ensemble des activités de développement de l’équipe. 🎯 Objectif de la mission : Le Scrum Master aura pour rôle de structurer le cycle agile, d’assurer le pilotage du delivery (jalons, budget, RAF fonctionnel, validation des chiffrages) et de représenter l’équipe de développement au sein des différentes instances. Ce poste, à forte visibilité, nécessite un excellent sens du relationnel , une rigueur d’exécution et une communication claire et professionnelle , véritables vitrines de la qualité du travail de l’équipe. Responsabilités principales : Mettre en place et animer le cycle Agile (Scrum, Kanban, SAFe). Piloter le delivery : suivi des jalons, budgets et charges. Qualifier les chiffrages et coordonner la planification avec les équipes métier et techniques. Faciliter la communication entre les développeurs, les PO et les parties prenantes. Contribuer à l’amélioration continue des pratiques agiles et à la performance de l’équipe.
Offre d'emploi
Data Engineer IA
Publiée le
21 621 €
Lavaur, Occitanie
Télétravail partiel
En tant que Data IA Engineer au sein de notre équipe Data Intégration, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions avancées d'intelligence artificielle et de data science. Votre mission principale sera de contribuer à l'amélioration continue et à l'innovation de nos plateformes digitales. 1.1. CONTENU DE LA MISSION OU DES LIVRABLES En tant que Data IA Engineer, vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Responsabilités : -Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. -Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. -Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. -Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. -(Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA. 1.2. SPECIFICITE DE LA MISSION Diplôme en informatique, data science, ingénierie ou domaine connexe. Data IA engineer avec maîtrise de Python, FastAPI, MongoDB, Elasticsearch, SQL, NoSQL, Docker, Airflow, Snowflake et Gitlab CI. Des capacités en React et Next.js sont un plus
Offre d'emploi
PMO/CDP Banque
Publiée le
Chef
3 ans
Île-de-France, France
Télétravail partiel
Au sein du département IT , la DSI T&O et BPA a pour vocation de fournir aux services Technologies & Opérations (pôles Global Business Management and Transformation (GBMT), WorkPlace, CIO Office Groupe) et Banque de Proximité et Assurance (BPA), l’ensemble des applications nécessaires à leur fonctionnement. L'équipe DSI BPA pilote le portefeuille projet et run de BPA pour le compte de la DSI Corporate, soit en réalisation directe, soit en collaboration avec d'autres équipes IT transverses. Le programme est un projet stratégique majeur visant à unifier les systèmes d'information retail . Dans le cadre de ce projet, notre DSI est directement impactée en aval, ce qui concerne un certain nombre d'outils en build ou en run.
Offre d'emploi
Data Consultant (Tableau to Power BI Migration)
Publiée le
MSBI
Oracle SQL Developer
Tableau software
Île-de-France, France
Télétravail partiel
Dans le cadre de ses projets de transformation data, Hextaem accompagne l’un de ses clients majeurs dans la migration de sa plateforme BI de Tableau vers Power BI . L’objectif est de moderniser l’écosystème de reporting , d’améliorer la performance des analyses et de renforcer l’autonomie des utilisateurs métiers. Le/la Consultant(e) Data interviendra sur l’ensemble du cycle de migration : analyse du parc existant, conception de l’architecture cible, migration technique et fonctionnelle, validation des données et accompagnement des utilisateurs. Missions principales 1. Analyse et cadrage Cartographier les rapports et jeux de données existants sous Tableau. Identifier les sources de données, flux et dépendances techniques. Définir l’architecture cible Power BI (datasets, dataflows, workspaces). Établir la stratégie, le plan de migration et le calendrier associé. 2. Migration et développement Reproduire et optimiser les dashboards, indicateurs et modèles dans Power BI. Concevoir des modèles de données performants (DAX, Power Query). Garantir la cohérence visuelle et fonctionnelle entre Tableau et Power BI. Gérer la publication, les jeux de données, les rafraîchissements et les droits d’accès sur Power BI Service. 3. Tests et validation Réaliser les tests de recette technique et fonctionnelle. Comparer les résultats entre Tableau et Power BI pour assurer la justesse des données. Documenter et corriger les écarts identifiés. 4. Formation et accompagnement Former les utilisateurs clés à Power BI et aux bonnes pratiques. Documenter les nouveaux rapports et processus de gouvernance. Accompagner les équipes métiers dans l’adoption de Power BI. Compétences techniques Maîtrise de Tableau Software et Power BI (Desktop & Service) . Excellente connaissance de SQL , DAX et Power Query (M) . Solides compétences en modélisation de données (étoile / flocon). Connaissance des principales sources de données : SQL Server, Oracle, Excel, API, Data Lake. Une expérience sur (ADF, Synapse, Databricks) est un plus. Maîtrise des bonnes pratiques en gouvernance BI , performance et sécurité.
Mission freelance
Data Analyst RH
Publiée le
ADP
Microsoft Excel
Microsoft Power BI
1 an
300-350 €
Île-de-France, France
Nous recherchons pour l'un de nos clients, un(e) Data Analyst RH afin de valoriser les données une fois étudiées et de les structurer pour aider la DRH à développer des stratégies pertinentes dans l'ensemble des domaines RH et Finance (masse salariale, effectifs prévisionnels, ETP, KPI RH, mobilité, performance...) Vos principales missions seront les suivantes : - Extraire les données RH nécessaire à l'analyse, à l'aide des logiciels SIRH (RHPI, ADP, Workday, BOXI, etc.) - Définir les règles de gestion de nettoyage, de structuration des bases de données et rédiger les processus. - Veiller à l'exactitude des données RH, être garant et référent de ces données. - Veiller à ce que les données RH des collaborateurs soient protégées et utilisées en parfaite conformité avec les règlementations en vigueur. - Analyser les données afin d'en dégager des tendances, des axes d'amélioration. - Optimiser les process. - Réaliser des tableaux de bord à des fins de communication pour différents services ou niveaux de hiérarchies. - Réaliser des tableaux de bord permettant l'automatisation des rapports légaux (Bilan Social, Bilan Egalité F-H, Bilan Emploi CSE, etc.) - Contribuer aux chantiers Data en lien avec le Data Office (Gouvernance, fiabilité des données, ...) - Participer aux projets de digitalisation des outils RH.
Offre d'emploi
Data analyst / expert Power BI
Publiée le
Data analysis
DAX
Microsoft Excel
1 an
40k-50k €
450-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de missions à venir en cours de qualification, nous recherchons dès maintenant des consultants Power BI (CDI ou Freelance) prêts à rejoindre nos équipes dès que possible Exemples de missions à venir : Développement et optimisation de dashboards Power BI Refonte ou migration de rapports depuis d'autres outils (QlikView, Tableau, Excel...) Recueil de besoins métiers et accompagnement à la prise en main des outils Automatisation du reporting et amélioration des KPIs Mise en place de solutions de visualisation pour différents départements (finance, RH, marketing, etc.)
Mission freelance
Architecte Entreprise SI (Secteur Energie / Industrie)
Publiée le
Amazon S3
Apache Kafka
API
12 mois
700-810 €
Paris, France
Télétravail partiel
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. 🧱 Missions principales1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats
Mission freelance
Chef de Projet Déploiement & Support Medius
Publiée le
Data management
1 an
400-690 €
Île-de-France, France
Télétravail partiel
Missions principales 1. Gestion de projets de déploiement Medius Élaboration du planning / vagues en coordination avec le Program Manager Définition et validation du scope avec les CSP Organisation des kick-off et ateliers de Gap Analysis Suivi des gaps, change management et livrables par phase Coordination et validation des tests, gestion de l’issue list et escalades Préparation du Go-live : cutover, hypercare, transfert au support Reporting aux comités de pilotage (outil interne Concerto) 2. Gestion du support Medius – QAD (intégration) Collecte et qualification des demandes auprès des CSP Coordination du delivery avec équipes Medius / QAD Suivi des tickets (Jira + Medius Portal) Escalade et suivi de résolution
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Mission freelance
Solution Data Architect H/F
Publiée le
Architecture
12 mois
400-550 €
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Périmètre et objectifs de la mission Mission principale : Prendre en charge l’architecture de bout en bout des solutions data pour les produits et cas d’usage analytiques, au sein d’un ou plusieurs value streams. Traduire les besoins métiers en solutions data sécurisées, scalables et optimisées en coût, s’appuyant sur la plateforme data d’entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). 2. Responsabilités principales Architecture : Ingestion batch/stream, DWH (modélisation Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL/API/couche sémantique, gestion des flux de features ML si besoin. Modélisation : Transformation des concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation…). BI & Analytics : Gouvernance des KPIs, optimisation des dashboards et des requêtes, gestion du cache et des agrégats, promotion du self-service (dbt/metrics layer + catalogue). Ops & FinOps : Suivi des SLOs (fraîcheur, latence, coût), observabilité, runbooks, backfills, tuning du stockage et des requêtes pour réduire les coûts. Gouvernance/Mesh : Gestion des métadonnées, documentation, publication de blueprints et d’ADRs.
Offre d'emploi
Consultant junior en CMDB / ServiceNow
Publiée le
CMDB
Data management
Data quality
12 mois
35k-45k €
400 €
Toulouse, Occitanie
Télétravail partiel
Votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.
Mission freelance
Data Product Manager (Business Analyst / Solution Architect)
Publiée le
Data management
1 an
400-600 €
Île-de-France, France
Le consultant interviendra au sein de l’équipe Data-as-a-Service et aura pour mission de structurer et piloter une étude stratégique Data couvrant plusieurs régions et métiers. Ses responsabilités incluront : Organisation et pilotage de l’étude : définition du cadrage, identification des parties prenantes et animation des ateliers avec les directions métiers et IT dans un contexte international. Analyse des besoins et des processus : collecte et formalisation des exigences business & IT (globaux et régionaux), compréhension des ambitions stratégiques du segment Construction Chemicals , identification des enjeux majeurs et priorisation. Documentation et modélisation : formalisation de l’architecture fonctionnelle cible, préparation des plans de communication et restitution claire et visuelle des livrables. Planification des travaux : séquencement des différents lots, définition des jalons, intégration des meilleures pratiques issues de la Data & Analytics Factory. Coordination des acteurs Data : organisation et suivi des contributions des équipes internes (Architecte Technique, Data Engineers, BI Engineers), gestion des interfaces avec les métiers et autres départements IT. Évaluation de la valeur métier : identification et documentation des bénéfices attendus, évaluation des impacts business, estimation du ROI. Préparation du projet de mise en œuvre : construction du budget Build/Run, élaboration du planning de déploiement, et rédaction de la proposition finale “Go to Project” à présenter au management. L’objectif final est de fournir une vision claire, structurée et orientée valeur permettant de sécuriser la décision de lancement du projet et de garantir l’alignement entre les ambitions business et les capacités Data & Analytics.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- IA vs Développeurs : stop à la confusion entre coder et développer !
- Freelance et Habilitation Confidentiel défense
- ARCE + mail URSSAF sur l'ACRE
- CHEQUES VACANCES / CADEAUX / CAGNOTTES PELE MELE
- Recherche d'associés et/ou projets en équipe
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
2585 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois