Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka

Votre recherche renvoie 204 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer Cyber

VISIAN
Publiée le
Apache Kafka
DevOps
Elasticsearch

1 an
40k-45k €
100-470 €
Montreuil, Île-de-France

Descriptif du poste Dans le cadre du déploiement du SOC ITG et de la collecte des logs sécurité de ses entités métiers, le bénéficiaire souhaite une prestation en ingénierie Data Collect et Data Transformation autour des solutions techniques Elastic Search et Elastic Beats, pour l'enrichissement d'un "puit de donnée sécurité" pour permettre la corrélation d'événements, et la mise en place d'alerting sur des paterns de sécurité. Missions Mise en place et définition des mécanismes de collecte Définition des patterns d'architectures de la collecte Déploiement de ces dispositifs sur le socle d'infrastructure Groupe, et sur les entités opérées dans les filiales ou à l'étranger Définition et mise en œuvre d'une stratégie de collecte uniforme et standardisée Mise en place de pipelines d'enrichissement de la donnée Maintien condition opérationnelle de la plateforme et des agents de collecte Mise en place de processus d'onboarding de nouvelles sources de logs ou d'assets en liens avec les responsables des systèmes monitorés Support et conseil aux entités utilisatrices des services Maintien et contrôle de la donnée collectée (exhaustivité et qualité)

Freelance

Mission freelance
Développeur Sénior Full Stack Java (FH)

Taleo Capital
Publiée le
Apache Kafka
DevOps
Java

1 an
500-600 €
Courbevoie, Île-de-France

Contexte et Mission Pour le compte d’un grand groupe bancaire situé à La Défense , nous recherchons un Senior Full Stack Java Developer disposant de solides compétences techniques ainsi qu’une capacité de coordination intercontinentale (Asie ↔ Amériques) . Le consultant participera à la refonte d’un ensemble d'applications critiques, incluant la migration de solutions C/C++ vers Java/Python , la mise en place de microservices de reporting , et l' optimisation de pipelines ETL . Ce poste demande un excellent niveau technique sur Java, une forte culture DevOps, de bonnes compétences en communication, et une aisance en anglais dans un environnement international . Responsabilités clés Migrer des applications C/C++ vers Java ou Python. Concevoir et implémenter des microservices robustes et scalables. Travailler avec des systèmes de données variés (Oracle, PostgreSQL, Kafka, MQ, Solace...). Optimiser les performances des flux ETL. Mettre en œuvre des pipelines CI/CD (Maven, Jenkins, Docker, Kubernetes, Ansible). Collaborer avec les équipes globales (Europe, Asie, Amériques). Participer à la coordination technique entre fuseaux horaires. Respecter les normes de qualité, de sécurité et de conformité réglementaire.

CDI
Freelance

Offre d'emploi
TECH LEAD BIG DATA

UCASE CONSULTING
Publiée le
Apache Kafka
Apache Spark
Azure

3 ans
35k-67k €
480-980 €
Paris, France

Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.

CDI

Offre d'emploi
DEVELOPPEUR BACK-OFFICE E COMMERCE .NET KAFKA (H/F)

GROUPE ALLIANCE
Publiée le
.NET
RabbitMQ
Transact-SQL

55k-60k €
France

ACCROCHE SI TU NE CONNAIS PAS LE CHEMIN, CETTE ANONCE T'INDIQUERA LA BONNE DIRECTION ... CE QUE TU RECHERCHES : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou dôté(e) d’une expérience de ans minimum Expert(e) en développement back-end : Habile avec les outils : AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Freelance

Mission freelance
Business Analyst

CAT-AMANIA
Publiée le
Apache Kafka
API REST
Talend

6 mois
Lyon, Auvergne-Rhône-Alpes

La prestation de Business Analyst vient renforcer la capacité à faire de l’équipe et lui permettre de contribuer à ce projet de Knowledge Management pour le compte de la DSI. Nous sommes actuellement en phase de RFP (éditeurs en cours de consultation) et conduit un pilote en parallèle sur une des solutions (sans pour autant avoir arrêté son choix sur cette dernière). La prestation de Business Analyst spécialisée Knowledge Management (KM) a pour objectifs : • D’apporter son expertise sur le domaine du KM afin d’aider à éclairer le choix de la solution retenue (technique et fonctionnel) • De contribuer avec la core team PDSI sur les différentes phases du projet (RFP / pilote /choix solution / implémentation / accompagnement utilisateurs) • De renforcer la squad sur cette compétence spécifique de KM et de réaliser les actions incombant à la squad pour ce projet, en collaboration avec le Product Owner o Phases de cadrage, recueil besoin, formalisation o Choix de la solution o Intégration dans l’environnement AVEM o Recette o Déploiement o Accompagnement utilisateurs o Passage en run Attendu : La prestation de Business Analyste devra fournir les livrables suivants : • Analyse et clarification du besoin vers les métiers et/ou Business & Epics Owners • Contribution à la rédaction du RFP • Participation au choix de la solution en lien avec la core team PDSI • Travail en collaboration avec la squad (PO en particulier) pour intégrer la solution de KM dans l’écosystème AVEM • Participer à la recette de la solution (élaborer et jouer les plans de test) • Travail en lien rapproché avec les parties prenantes d’AVEM pour intégrer et déployer la solution (chapitres architecture, Data, Securité, et avec les squads en adhérences) • Réaliser la documentation nécessaire pour l’appropriation de l’outils par les utilisateurs finaux • Faciliter le transfert en run de la solution (à la squad en charge de celle-ci et aux utilisateurs Compétences techniques : • Flux Talend (ESB /ETL) • API • Connecteurs natifs que les outils proposent par défaut • Bus d’évènement Kafka (en cours de déploiement chez AVEM dans le cadre du PDSI) • Data Platform (en cours de déploiement chez AVEM dans le cadre du PDSI)

Freelance

Mission freelance
Deux Offres Freelance - QA Fonctionnel et et QA Auto – Lille

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Kafka
Gherkin
ISTQB

1 an
310-420 €
Lille, Hauts-de-France

Bonjour, Pour l’un de mes clients, je suis à la recherche d'un : Mission 1 – Lille Poste : Testeur fonctionnel (QA) Lieu : Métropole lilloise (campus entreprise) Présence : 3 jours sur site Contexte : Déploiement d’un nouvel outil SaaS multi-canaux (Email, WhatsApp, Messenger, Chat, FAQ...). Cet outil remplace plusieurs applications existantes et intègre aussi des fonctionnalités chatbot et API. Responsabilités : Rédiger et maintenir le référentiel de tests manuels Effectuer les tests de validation des nouvelles fonctionnalités Exécuter et analyser les tests de non-régression Qualifier et suivre les bugs Assurer le reporting des activités de test Accompagner les tests utilisateurs à l’international Contribuer à l’amélioration continue Compétences : Testing manuel, ISTQB, Agile, Postman (tests back), anglais écrit minimum Mission 2 – Lille Poste : QA Auto / Ingénieur Test Automation Lieu : Métropole lilloise (pôle digital) Présence : 3 jours sur site + 2 jours télétravail Contexte : Équipe en charge de la reprise et de la revente de produits reconditionnés, dans le cadre d’un projet de transformation digitale et technologique. Responsabilités : Automatiser les tests API REST et flux Kafka (framework Karate) Définir la stratégie de tests et animer les équipes sur la qualité Sensibiliser aux bonnes pratiques de test Revue et validation du code de test Réduire la dette technique Réaliser des tests exploratoires Garantir la cohérence et la fiabilité des livrables Compétences : API REST (expert), Kafka (avancé), Karate (expert), Jira & Xray, Confluence, autonomie et communication forte Si vous êtes intéressé et que votre profil correspond à la demande, merci de postuler avec votre CV à jour, je reviendrai vers vous rapidement.

Freelance

Mission freelance
Lead Dev Fullstack / Python / Kafka

Freelance.com
Publiée le
Apache Kafka
DevOps
DevSecOps

12 mois
550 €
Paris, France

Contexte : L’objet de cette consultation est une prestation d’assistance technique pour un Tech Lead Fullstack / Python / Kafka avec + de 10 années d'expérience pour les équipes du Financement Court Terme de BPI. Missions : Ci-dessous les principales activités à mener dans le cadre de la mission : - S'assurer que les besoins sont bien couverts dans les engagements du train - S'assurer que les livrables sont dans la cible technique Bpifrance - S'assurer de développer dans le cadre du DevSecOps - Promouvoir les pratiques DevSecOps au sein de l'équipe - Prendre en charge les correctifs nécessaires - Assurer la réalisation des tests unitaires et automatisés, des tests End To End - Participer au bon niveau des indicateurs sur l'Excellence opérationnelle de l'application et du périmètre de l'équipe - Participer aux revues des User Stories (US) et aux chiffrages - Corrections des anomalies et suivi de production - S'assurer que les pipelines de déploiement continu sont bien en place et conformes - Automatisation des tests dans le processus de déploiement - Création/correction de pipeline DEVSECOPS, Jenkins file - Utilisation d'outil de supervision d'applications - Participer aux cérémonies du train SAFe - Mettre en pratique l'usage de l'IA générative

Freelance

Mission freelance
data ingnénieur

Etixway
Publiée le
Apache Kafka
BigQuery
Docker

1 an
330-530 €
Lille, Hauts-de-France

Objectif global :Développer le socle data Loyalty & Quotation  Contrainte forte du projet -  Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Freelance

Mission freelance
Ingénieur DevOps Kafka MongoDB

CAT-AMANIA
Publiée le
DevOps

6 mois
400-500 €
Paris, France

Vous rejoindrez notre équipe en charge de la SQUAD DevOPS et à ce titre, vos missions consisteront à contribuer: Mettre en place une infrastructure GCP Terraform, Mettre en place les connections réseaux avec du Private Service Connnect, Intégration des briques techniques de MongoDB et Kafka, Mise en place des CI/CD applicatives, Assurer le Run des applications, Gestion et la résolutions des incidents, Support au équipes techniques, Accompagner les équipes dans la montée en compétences, Mise à jour de la documentation,

Freelance

Mission freelance
Tech Lead Java / Kafka - Toulouse

Intuition IT Solutions Ltd.
Publiée le
Apache Kafka
Java

6 mois
Toulouse, Occitanie

Description du poste En tant qu’ Expert Technique au sein de l’équipe Transverse Framework , vous jouerez un rôle central dans l’évolution de notre framework de développement Estreem. Vous serez à la fois moteur dans la définition de la stratégie technique, garant des normes de développement, et un soutien clé pour les équipes produits. Vos missions principales : Expertise technique : Être force de proposition sur les choix d’architecture, les évolutions technologiques et la sécurisation logicielle. Assurer une maîtrise complète des outils de développement logiciel. Garantir le respect des normes de développement et de qualité. Apporter votre expérience dans les environnements Cloud et de conteneurisation . Développement du framework Estreem : Concevoir et implémenter les évolutions du framework. Développer et maintenir les tests unitaires et d’intégration. Assurer la non-régression et la compatibilité ascendante du framework. Support aux équipes produits : Être le point de contact technique pour les problématiques complexes rencontrées par les équipes projets. Accompagner la prise en main du framework et les montées de version.

CDI
Freelance

Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience

Argain Consulting Innovation
Publiée le
Agile Scrum
Apache
Apache Kafka

6 mois
40k-45k €
400-470 €
Vannes, Bretagne

Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.

Freelance

Mission freelance
Ingénieur DevOps - Expertise Kafka & Golang

STHREE SAS pour HUXLEY
Publiée le

12 mois
450-650 €
Puteaux, Île-de-France

Contexte & Objectifs du Poste Dans le cadre d'un projet stratégique pour un acteur majeur du secteur des paiements, nous recherchons un Ingénieur DevOps orienté run . Ce poste vise à garantir la stabilité, la performance et l'évolutivité des plateformes critiques. Le candidat doit impérativement maîtriser Kafka et avoir une compétence indispensable en Go (Golang) . Missions Principales Assurer le maintien en condition opérationnelle des environnements de production. Participer à la gestion des incidents , à l'analyse des causes et à la mise en place de solutions pérennes. Mettre en œuvre et maintenir les pipelines CI/CD . Gérer les infrastructures cloud et containerisées (Docker, Kubernetes). Superviser les systèmes de monitoring et d'alerting . Optimiser les flux Kafka (performance, résilience, sécurité). Développer et maintenir des outils internes en Go , utilisés dans les processus DevOps.

Freelance
CDI

Offre d'emploi
Ingénieur OPS /Ingénierie OPS CD&S DHF

VISIAN
Publiée le
Ansible
Apache Kafka

1 an
40k-45k €
250-470 €
Île-de-France, France

Descriptif du poste : Ingénieur OPS / Ingénierie OPS Le bénéficiaire souhaite une prestation d'ingénierie expérimenté et support OPS en production sur le périmètre des applications Customer Data & Services - Digital Solutions (parcours digitaux). Cette mission s'exécute en langue française et anglaise et intervient dans le cadre de la mise en place d'une équipe support transverse à l'ensemble des applicatifs de notre périmètre. Missions en BUILD : Suivi de projet et co-construction avec l'IT Métier Point d'entrée OPS dans le cadre des projets confiés Gestion, dans le cadre des évolutions et des projets, de l'ensemble des gestes techniques pour la mise en production des applications Création ou mise à jour des environnements Réalisation de l'ensemble des gestes techniques d'installation ou de mise à jour d'application Mise à jour des consignes d'exploitation et contribution au passage en RUN Accompagnement technique et conseil Veille à l'application des bonnes pratiques, des standards du groupe

Freelance

Mission freelance
Data Engineer Senior

Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Java

12 mois
450-490 €
Saint-Pierre-des-Corps, Centre-Val de Loire

Dans le cadre du renforcement de ses équipes, notre client recherche un Data Engineer Senior. En ce sens, vos missions seront : Comitologie, documentation et cartographie data • Préparation et animation d’instances transverses de présentation de projets Data et de validation des solutions techniques (Design League Data, Guildes Data dédiées). • Documentation des assets data de la plateforme (SimDoc, Datahub, Datalab). • Cartographie des données et conception/développement d’outillage. Expertise Data • Accompagnement technique et conseil Data/Big Data auprès des équipes projets (Datahub + Datalab). • Analyse, conception et refonte d’assets data transverses. • Suivi des évolutions et migrations de la stack technique de la plateforme. Facilitation des sujets Data • Médiation inter-projets. • Aide à l’expression de besoins et à la rédaction de spécifications technico-fonctionnelles.

Freelance
CDI

Offre d'emploi
Développeur JAVA / PYTHON

BEEZEN
Publiée le
Apache Kafka
Docker
Gitlab

12 mois
40k-50k €
400-450 €
Montreuil, Île-de-France

Je recherche un Développeur JAVA / PYTHON ayant plus de 6ans d 'experience pour prendre en main le développement et l’industrialisation de FDS, plateforme de partage de données de fraude digitale. Vous assurerez la continuité du produit (API Java pour les clients internes, backend Kafka, Python, PostgreSQL, Elastic), ferez évoluer les fonctionnalités avec les métiers (Fraude/Sécurité) et garantirez qualité, performance et sécurité, dans un environnement Docker/Kubernetes et CI/CD GitLab/Jenkins. Prestations demandées Développe, maintient et évolue l’API Java (Spring Boot/Cloud) et le backend Python/PostgreSQL/Elastic. Travaille en itération avec les équipes Fraude Digitale : cadrage, priorisation, delivery incrémental. Mettre en place et faire respecter les standards interne, CI/CD (GitLab, Jenkins), qualité de code (SonarQube, Sonatype), dépendances (Maven), artefacts (Artifactory) et tests automatisés (JUnit, Pytest). Opére dans un environnement conteneurisé (Docker, Kubernetes, Linux) ; intégrer Kafka dans les flux. Documente, partage les connaissances et mentorer les membres de l’équipe pour élever le niveau d’ingénierie. Contribue à l’observabilité sur Elastic Stack (journaux, métriques, traces) et à la sécurité applicative.

CDI

Offre d'emploi
Tech lead DevOps

REDLAB
Publiée le
Apache Kafka
C#
DevOps

45k-62k €
Yvelines, France

Nous recherchons un tech lead Expert DevOps/Java Springboot / PHP Symfony / Kafka • Participer à l’élaboration du design logiciel des produits PREMISS/PRESTO, • Superviser l’affinage technique des solutions, évaluer les impacts et les coûts, • Collaborer au développement, tests unitaires, tests de performance et déploiement de la solution SI, • Faire progresser l’équipe DEVOPS et former les nouveaux arrivants, • Garantir la qualité des livrables et promouvoir les bonnes pratiques en matière de codage, couverture de TU, sécurité, performance et résilience, • Participer à la mise en place et aux upgrades du pipeline de déploiement (GitLab CI) • Superviser et participer aux revues de code, tests unitaires et assurer le déploiement des livrables de sprint et veiller avec l’équipe de test au bon déroulement de l’intégration continue : TU et TNR automatisés OK après chaque déploiement • Mettre en place avec les OPS les outils et métriques permettant la surveillance en production et la remontée d’alarmes. Participer au MCO (Maintient en conditions opérationnelles), au diagnostic des incidents à la recherche de solutions (de contournement et pérennes) et à l’optimisation. • Superviser l’occupation des ressources de l’infrastructure de production et contribuer au right sizing de ces ressources. • Collaborer à la communauté des Tech Lead Cette mission évoluant dans un contexte technique exigeant, une expertise sur les technologies JAVA Springboot / PHP Symfony et Kafka, une expertise des architectures micro-services et évènementielles sont nécessaires pour ce profil d’expertise technique.

204 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous