Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 843 résultats.
Freelance

Mission freelance
Technicien Datacenter

Publiée le
Data Center
Data management

3 ans
Rennes, Bretagne
Au sein de la Section Exploitation, Réseaux et Sécurité (SERS) , nous recherchons une prestation pour renforcer l’équipe en charge de l’environnement technique du datacenter. Pilotage des prestataires en charge de l’environnement technique bâtimentaire Challenge des choix techniques et des devis proposés Rôle orienté "chef de salle" : garant du bon fonctionnement et de la fiabilité des infrastructures techniques Compétences clés Capacité à coordonner et challenger des prestataires techniques Connaissance des normes et contraintes datacenter Rigueur, autonomie et sens des responsabilités
Freelance

Mission freelance
Intermediate Data Engineer

Publiée le
API
AWS Cloud
Big Data

12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Freelance
CDI
CDD

Offre d'emploi
Développeur Data NodeJS/Angular/Python

Publiée le
Angular
Node.js
Python

1 an
50k-55k €
450-500 €
France
Télétravail 100%
Le projet consiste à maintenir et faire évoluer des plateformes Data. Elles permettent la réutilisation des données et s’inscrivent dans la volonté de valorisation de la data Client. Chaque plateforme possède la donnée propre à son entreprise. Les 2 plateformes sont les copies d’un même code, Les objectifs du projet sont les suivants : •Proposer un vaste catalogue de données téléchargeables sous la forme de jeux de données dont de la donnée confidentielle, et en permettre la commande •Former/informer à la data, et à la data gouvernance : glossaire des termes, dictionnaires des objets, description des filières de données, catalogue des gisements •S’abonner aux Services Web proposant de la donnée et aux flux d’interopérabilité •Proposer des espaces sécurisés, nommés Datarooms pour travailler la donnée •Explorer la donnée des gisements par requêtage L’application est développée avec diverses technologies : Pour la partie Front : Angular Pour la partie Back : Node JS Ingestion des données (micro-service) : Python Pour la communication entre les micro-services : RabbitMq
CDI
Freelance

Offre d'emploi
Ingénieur DevOps Big Data (H/F)

Publiée le
Ansible
Apache Kafka
Cloudera

1 an
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Freelance

Mission freelance
Consultant SIRH Data Pléiades

Publiée le
Big Data
PLEIADES
SIRH

6 mois
Île-de-France, France
Télétravail partiel
Missions principales : • Recueil & cadrage des besoins : Identifier et formaliser les besoins métiers du contrôle de gestion concernant les Data RH. Définir les indicateurs clés RH (effectifs, absentéisme, turnover, masse salariale, etc.). Prioriser les besoins en fonction des enjeux stratégiques. • Spécifications fonctionnelles : rédiger les spécifications fonctionnelles d’extraction et de transformation des données RH (Pléiades, Sopra, Horoquartz). Documenter les règles de gestion existantes et à mettre en place. Formaliser un dictionnaire de données RH partagé et pérenne. • Collaboration avec les équipes Data : travailler en étroite relation avec les équipes Data/BI en charge de la réalisation technique (Microsoft Fabric, Power BI). Assurer la cohérence et la qualité des données intégrées au Data Lake. Participer à la recette fonctionnelle des flux et des tableaux de bord RH. • Contribution à la gouvernance Data RH : Structurer les processus de mise à jour et de documentation. Contribuer à la démocratisation et à l’accès sécurisé des données RH.
CDI
Freelance

Offre d'emploi
DATA ENGINEER SPARK/SCALA

Publiée le
Apache Airflow
Hadoop
PySpark

6 mois
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Je recherche pour un de mes clients dans le domaine de la banque/Assurance un Data Engineer : Contexte de la mission Dans le cadre d'un renfort équipe, nous sommes en recherche d’un profil confirmé avec de bonnes compétences en ingénierie des données (Big Data) pour intervenir sur des sujets en lien avec le périmètre marketing. Le prestataire interviendra au sein d'une équipe Big Data d'une quinzaine de personnes travaillant en mode projet agile. Objectifs et livrables Il contribuera au Run quotidien et à l'évolutivité des applications métiers tels que : la segmentation client marketing le calcul d'indicateurs de téléphonie le datamart marketing et bien d'autres. Le candidat devra faite preuve d'autonomie, de rigueur et d'un bon sens de la communication. Les compétences techniques attendues sont : Airflow Kafka, Hadoop, Bases relationnelles et NoSQL Spark Scala SQL CI/CD et DevOps Des compétences sur le cloud Azure et la conception de Webservices REST seraient appréciées. De manière générale il doit pouvoir documenter ses travaux, présenter ses réalisations en adaptant son discours et interagir avec l’ensemble des acteurs projets, ceux de l'équipe, des autres équipes IT et métiers. Compétences demandées : Apache Airflow, HADOOP, DEVOPS, KAFKA, SCALA, Spark
CDI

Offre d'emploi
Data Engineer Look ML

Publiée le

50k-70k €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
En tant que BI engineer Looker/LookML, vous serez en charge de concevoir, développer et d'optimiser des solutions de reporting adaptées aux besoins de nos différents métiers. Votre expertise avancée en LookML/Looker, vos connaissances et compétences sur d'autres outils de visualisation telles que MicroStrategy et/ou QlikView, combinée à une solide maîtrise de SQL, sera un atout essentiel pour réussir dans ce rôle. Ø Missions principales : · Concevoir, développer et maintenir les modèles de données et couche sémantique dans LookML. · Concevoir et développer des tableaux de bord et rapports à l'aide des outils Looker, MicroStrategy et QlikView. · Intégrer différentes sources de données. · Collaborer avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions de reporting performantes. · Assurer la maintenance, la résilience et l'évolution des solutions existantes. · Effectuer les recettes techniques et fonctionnelles des traitements développés. · Mettre en place des mécanismes de monitoring pour assurer le bon fonctionnement et la fiabilité des solutions. · Participer à l'optimisation des modèles de données et à la création d'infrastructures de reporting. · Garantir la qualité, la fiabilité et la précision des données présentées. · Rédiger les livrables et la documentation technique associée pour faciliter la pérennité et la transmission des connaissances. · Participer à la gouvernance des couches sémantiques et des reportings. · Former les utilisateurs finaux et leur fournir un support technique lorsque nécessaire.
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
Chef de Projet Customer Data Platform / CRM

Publiée le
CRM
Data governance
Data Warehouse

6 mois
570-600 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Principales missions : - Piloter la mise en place et l’exploitation de la CDP (Segment) dans un contexte omnicanal : web, app, retail. - Garantir la qualité, la cohérence et la gouvernance des données clients collectées. - Coordonner les chantiers entre les équipes techniques et métiers autour de la donnée client. - Traduire les besoins CRM et marketing en spécifications techniques exploitables dans la CDP. - Gérer le backlog d’évolutions CDP : priorisation, planification, suivi et communication. - Tester et recetter les flux de données (événements, attributs, identités, mapping client). - Documenter les cas d’usage, les schémas de données et les paramétrages (Confluence, Jira). - Assurer la conformité RGPD et la gestion des consentements en lien avec les équipes légales. Compétences clés : > Techniques & Data : Solide compréhension des flux de données clients et des payloads JSON. Maîtrise de Segment (tracking, mapping, intégrations, gestion des identités). Connaissance des APIs et des systèmes retail / POS. Capacité à tester et valider les flux de bout en bout. > Fonctionnelles & Métier : Excellente compréhension des enjeux CRM et marketing relationnel (segmentation, activation, scoring). Vision client unifiée et approche orientée qualité / gouvernance de la donnée. Bonne connaissance du RGPD et des pratiques de gestion du consentement. > Pilotage & Coordination : Capacité à piloter un backlog d’évolutions conséquent (plus de 50 items à venir), à prioriser les chantiers et à arbitrer entre enjeux business et contraintes techniques Approche critique et proactive vis-à-vis des parties prenantes, avec une capacité à relancer, synchroniser et maintenir la dynamique autour de ce sujet transverse Rigueur dans la gestion de projet : planification, suivi d’avancement, documentation et communication claire sur les impacts et dépendances Sens du détail et approche très opérationnelle : tester et valider concrètement chaque flux avant mise en production Capacité à documenter les cas d’usage, les flux et les paramétrages (ex. via Confluence et Jira)
Freelance

Mission freelance
Data Analyst / Data Engineer

Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)

1 mois
450-550 €
Paris, France
Télétravail partiel
Mission / Freelance / 4/5ème / France / Paris / Data Analyst / Data Engineer / Marketing / GCP / Looker Boulogne-Billancourt (2j sur site / 3j remote) Démarrage : ASAP Mission estimée sur +/- 4 mois ; renouvellements mensuels Rythme : 4/5e (pas de travail le vendredi) ou temps plein Contexte Nous accompagnons un client qui recherche actuellement un freelance Data Analyst / Data Engineer pour rejoindre son équipe en charge des campagnes marketing. L’objectif : mesurer la performance des campagnes marketing, suivre les leads générés jusqu’aux ventes, et piloter la donnée de bout en bout. Vos missions Rattaché(e) à l’équipe Data & Marketing, vous interviendrez sur : La construction et l’optimisation de dashboards (Looker, Power BI ou équivalent) Le développement de scripts Python pour le traitement et la préparation de la donnée La mise en place et l’orchestration de pipelines de données (GCP / Azure) L’analyse de performance des campagnes et la production d’insights exploitables La visualisation et la communication des résultats aux équipes marketing Profil recherché Vous justifiez d’au moins 2 ans d’expérience professionnelle sur un rôle de Data Analyst ou Data Engineer Vous avez déjà travaillé dans un contexte marketing / performance / acquisition Vous maîtrisez : Looker (ou Power BI / Data Studio) Python pour le traitement de données Un cloud provider : GCP (idéalement) ou Azure Vous êtes rigoureux(se), analytique, et à l’aise pour manipuler des volumes de données variés Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy)
Freelance

Mission freelance
Data Analyst Splunk ITSI – Secteur Bancaire – Région Parisienne (H/F)

Publiée le
BI
Splunk
SQL

510 jours
270-320 €
Île-de-France, France
Télétravail partiel
Contexte du poste Rejoignez une entreprise majeure dans le secteur bancaire, engagée dans une transformation digitale ambitieuse. Située en Ile-De-France, notre entité est au cœur d’un projet stratégique visant à optimiser nos infrastructures IT grâce à des solutions innovantes de gestion de données. Vous intégrerez une équipe composée de passionnés de technologie et d’experts en data, dédiée à la création et à l’optimisation des dashboards ITSI. Cette mission vitale pour notre équipe a émergé pour renforcer notre capacité à analyser, interpréter, et intégrer les logs de nos infrastructures à travers la plateforme Splunk. Missions Missions principales Développer et optimiser les dashboards Splunk ITSI pour le monitoring et la performance SI. Configurer Splunk et structurer la base de données logs pour les infrastructures. Organiser, nettoyer, modéliser et fiabiliser les jeux de données nécessaires au pilotage. Explorer les données, produire des analyses, identifier tendances et anomalies. Créer ou améliorer des requêtes SPL et des algorithmes d’extraction pertinents. Industrialiser les traitements récurrents et assurer la qualité des gisements de données. Collaborer avec les équipes Argos pour comprendre les besoins métiers et orienter les dashboards. Documenter les travaux, sécuriser la cohérence et garantir un usage opérationnel durable. Participer à l’exploration de données complexes et à l’industrialisation des processus d’analyse. Soutenir le management dans la résolution des enjeux métiers via l’analyse de données passées. Stack technique Stack principale à maîtriser Splunk Dashboarding Splunk ITSI Data Analyse
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Apache Kafka
Apache Spark
Hadoop

Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Freelance

Mission freelance
DATA QUALITY Project Manager H/F

Publiée le
Data quality
DataGalaxy

6 mois
650-750 €
Paris, France
Télétravail partiel
Contexte : Une initiative mondiale sur la qualité des données a récemment été lancée. Elle vise à sensibiliser les entités du groupe à la qualité des données et à leur permettre de corriger les données de mauvaise qualité dans leurs systèmes sources. En 2025, l’accent est mis sur l’expansion d’un tableau de bord central regroupant des règles de qualité des données mises en œuvre dans la plupart des entités du groupe, offrant une vue globale de la qualité des données. Dans un premier temps, l’attention a été portée sur les règles de qualité des données ayant un impact sur la livraison à temps (OTD – On-Time Delivery).
CDI

Offre d'emploi
(H/F) Product Manager Data

Publiée le

60k-70k €
Saint-Priest, Auvergne-Rhône-Alpes
en bref: Product Manager Data / CDI / 55-60K€ + avantages / ST Priest Adsearch, cabinet de conseil en recrutement, vous propose un poste de Product Manager Data & IA chez un client final. Poste : Vous rejoignez la BU Transformation et Data composée de 15 profils cosmopolites (Chefs de projet, développeurs, Ingénieur Data…). En tant que Product Manager Data vous garantissez la valeur délivrée par les applicatifs Data & IA adressés aux utilisateurs internes et externes. Vous travaillez activement avec les équipes Data, DSI et métier pour concevoir et livrer des solutions à forte valeur ajoutée, tout en manageant équipe de 4 développeurs en environnement international (Anglais requis). Vous travaillez activement avec les équipes commerciales pour découvrir ce que les clients attendent de l'équipe Data & IA. Vos missions dans le détail : - porter la vision produit des applicatifs Data & IA et la décliner en roadmap - gérer le backlog produit suivant les besoins clients et métiers - rédiger les besoins métiers pour l’équipe de développement - animer les rituels Agile (sprint plannings, reviews, rétrospectives…) - interagir avec les différents acteurs (internes, clients, partenaire, équipe technique…) - manager l’équipe de 4p et suivre leurs performances.
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cyber NetSec F/H (pré-embauche client final)

Publiée le
Bash
DNS
IDS/IPS

2 ans
Ivry-sur-Seine, Île-de-France
Nous sommes à la recherche d'un Ingénieur Cyber NetSec pour l'un de nos clients finaux. Le poste propose une pré-embauche, avec un contrat initial de 4 à 6 mois de mission chez RIDCHADATA, avant une intégration directe chez le client. Sous la responsabilité du Responsable du COSC, l'ingénieur Sécurité NetSec occupe un rôle essentiel dans la stratégie de protection périmétrique des infrastructures de notre contre les menaces Cyber. En tant qu'expert sécurité, vous assurez la conception, mise en place et gestion des solutions de sécurité réseaux WAF, IPS, anti-DDOS. Doté d'une passion pour les nouvelles technologies et d'un appétit pour comprendre « comment ça marche », vos principales missions s'articulent sur : •Définition et mise en œuvre des stratégies de protection périmétrique autour des solutions WAF, IPS, Anti-DDOS, protection DNS •Veille technologique autour des solutions et nouvelles menaces •Gestion des solutions (administrer, MCO/MCS, proposer des évolutions et améliorations continues autour des plateformes et services) •Mener des analyses approfondies des incidents, comprenant les techniques, tactiques et procédures des attaquants •Utiliser des outils de sécurité avancés pour une surveillance proactive des systèmes •Accompagner les équipes de détection et réponse sur l'implémentation de nouvelles solutions de sécurité •Gestion des demandes clients et projets (industrialisation et automatisation des processus autour des solutions •Analyser et répondre de manière proactive aux demandes des clients internes et externes •Implémentation de nouvelles infrastructures •Reporting et Présentation des KPI •Participation aux Audits SSI Dans l'exercice de vos missions, vous serez amené à utiliser des technologies de pointe telles que : •Solutions IDS/IPS Cisco FirePower •Protection DDOS Arbor •WAF F5 / WAF Radware •Cisco Umbrella
Freelance
CDI

Offre d'emploi
DÉVELOPPEMENT JAVA BACKEND Spring (3-6 ans d'exp)

Publiée le
Java
Spring
Spring Batch

3 ans
40k-55k €
400-500 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : L'entité est en charge du SI du Leasing pour deux lignes métiers:- les financements structurés de la grande clientèle- les financements pour les PME. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement Dans ce cadre la prestation consiste à contribuer à/au(x) : - La gestion du projet ITRM - La comitologie - Suivi - Reporting Environnement technique : Java 6/7/8/17, spring batch, spring web, xldeplloy, jenkins, SQL, Sonar Autres technologies : XLdeploy, Docker et Kubernetes. 🤝 Livrables : Les livrables attendus sont :  Développement JAVA backend pour le projet Maille Contrat (réécriture de l'interface risque).  Devops: mise en place de la chaine de déploiement du projet, des serveurs, monitoring etc.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1843 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous