Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 287 résultats.
Freelance
CDD

Offre d'emploi
Développeur mobile React Native / Data Engineer H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks

12 mois
55k-60k €
400-450 €
Île-de-France, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. Vous interviendrez sur les sujets suivants : Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

VISIAN
Publiée le
Apache Hive
Apache Spark
CI/CD

1 an
40k-45k €
400-560 €
Île-de-France, France
🎯 Contexte Au sein de la direction IT Data Management & BI , vous intégrez l’équipe Big Data & API / Squad Financing & Risk . L’équipe développe et maintient un datalake , utilisé comme plateforme de données par les équipes IT et métiers (finance, risque). 🚀 Missions En tant que Data Engineer , vous intervenez sur le datalake FinLake avec les responsabilités suivantes : Assurer la gestion de la production (suivi des flux, incidents, performance) Réduire et maîtriser la dette technique Analyser l’ architecture existante et proposer des évolutions Réaliser les développements Big Data liés aux projets métiers Participer aux déploiements et à l’industrialisation des traitements 🛠️ Environnement technique Big Data : Spark, PySpark, Scala, Hadoop (on-premise) Data & requêtage : Hive, SQL/HQL, Starburst, Indexima Scripting : Unix / Bash DevOps & industrialisation : Jenkins, CI/CD, XLDeploy, XLRelease Outils projet : Jira
CDI

Offre d'emploi
Data Engineer H/F

DCS EASYWARE
Publiée le

Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons notre futur.e Data Engineer confirmé.e sur Clermont Ferrand ! Allez, on vous en dit plus... En lien avec notre manager Sébastien, voici les missions qui vous seront confiées : - Récupérer et mettre à disposition des bases de données internes et externes. - Construire de nouvelles bases : - En nettoyant les données (identifier les données aberrantes et les supprimer) - En formatant les données (unités...) - En synchronisant les données (qui ne sont pas synchrones, ni à la même fréquence) - en calculant à partir des données brutes des quantités agrégées (pour l'usage, typiquement pente, courbure...) validant la cohérence des données brutes entre elles - En calculant des données complémentaires (construire des \"engineering features\") Vous serez également présent.e aux réunions projet pour assurer la coordination avec l'équipeEt si on parlait de vous ? De formation informatique avec une spécialité data ou équivalent, vous témoignez de minimum 3 ans en Data Engineering. Compétences techniques attendues : - Maîtrise de Databricks / Snowflake/ Snowpark - Python (PySpark, Pandas, SQL). - Expérience avec Dataiku et industrialisation de pipelines de données. - SQL, requêtage avancé. - Automatisation et industrialisation de process data. - Capacité à travailler en autonomie et à structurer un flux collaboratif. - Capacité à capitaliser et documenter son travail. Connaissances souhaitables : - Capteurs, sens physique - Dynamique véhicule - Dataiku - Requêtage base de données (SQL) - Gitlab Qualités : esprit d'équipe, autonomie, esprit de synthèse, force de proposition, hauteur de vue, capacité à délivrer. Notre processus de recrutement en 4 étapes ! Tout simplement - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou TEAMS - Pour finir, discutez métiers avec l'un de nos managers opérationnels - Bienvenue chez nous ! Pourquoi nous rejoindre : - Paniers repas 6,30EUR net / jour travaillé - Prime de participation - Prime de vacances - Prime d'ancienneté - Comité d'entreprise - Mutuelle familiale prise en charge à 60
Freelance
CDI

Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort

EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis

3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
CDI

Offre d'emploi
Data Engineer (F/H)

INFOGENE
Publiée le

40k-50k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer (F/H) , venez renforcer notre équipe lyonnaise en ayant les responsabilités suivantes : Analyser et comprendre les besoins : Étudier l’existant pour identifier les axes d’amélioration et co-construire des solutions adaptées avec les équipes métiers. Concevoir et développer des pipelines de données : Créer des pipelines de données robustes, performants et évolutifs à l’aide de technologies comme Snowflake ou équivalent . Modéliser et optimiser : Concevoir des modèles de données performants et optimiser les requêtes pour répondre aux exigences métiers tout en garantissant un haut niveau de performance. Supervision et monitoring : Déployer des solutions de monitoring et d’alertes pour assurer la disponibilité et la fiabilité des traitements de données. Gérer les incidents techniques : Diagnostiquer et résoudre les problèmes liés aux pipelines ou infrastructures de données. Collaboration avec les équipes transverses : Participer aux projets en interagissant avec les experts métiers, les architectes techniques et les chefs de projet.
Freelance

Mission freelance
AWS Data Engineer Senior

CHOURAK CONSULTING
Publiée le
Amazon Redshift
Apache Airflow
AWS Cloud

3 mois
400-650 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform au sein d’un acteur majeur du secteur de l’énergie . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
Freelance
CDI
CDD

Offre d'emploi
Data Engineer / GenAI Engineer (Senior)

RIDCHA DATA
Publiée le
DevOps
Docker
Mongodb

1 an
Île-de-France, France
Contexte de la mission Dans le cadre d’un programme stratégique d’IA augmentée , la mission vise à concevoir et déployer un dispositif de benchmark permettant d’évaluer les technologies et solutions d’IA générative du marché. L’objectif est de sécuriser les choix technologiques , réduire les risques et structurer une roadmap produits et technologies IA . Objectifs globaux Mettre en place une architecture data complète dédiée aux benchmarks IA générative Automatiser l’ingestion, la préparation, le versioning et l’évaluation des données Garantir performance, scalabilité, traçabilité et reproductibilité des benchmarks Missions principalesArchitecture & Data Engineering Concevoir et implémenter des pipelines automatisés d’ingestion, nettoyage et versioning des datasets Développer des pipelines de génération d’embeddings et de collecte des résultats des modèles IA Mettre en place et administrer des bases de données : Vectorielles SQL / NoSQL Stockage objet (volumes importants) Définir une architecture data robuste répondant aux exigences de performance et de scalabilité DevOps & Industrialisation Conteneurisation des environnements ( Docker ) Mise en place d’ Infrastructure as Code (IaC) Automatisation CI/CD et déploiements reproductibles Qualité, documentation & gouvernance Rédiger le dictionnaire de données Produire la documentation technique complète Définir les procédures de validation et de contrôle qualité des données Assurer la traçabilité et la conformité des traitements Livrables attendus Architecture data détaillée (schémas, flux, intégrations) Infrastructure data opérationnelle (DB vectorielles, SQL/NoSQL, stockage objet) Environnements reproductibles (IaC, Docker, configurations) Code source documenté et versionné des pipelines Dictionnaire de données et documentation technique Procédures de validation et critères d’acceptation qualité Méthodologie Travail en mode Agile Participation aux rituels agiles et points d’avancement réguliers Reporting mensuel : livrables réalisés, à venir, points bloquants Compétences techniques requisesImpératives Python avancé (API, scripts, pipelines data) Bases de données : PostgreSQL, MongoDB, bases vectorielles Cloud : Google Cloud Platform (GCP) DevOps : Docker, Kubernetes, CI/CD (GitLab CI) Architecture Data & Big Data IA générative : LLM, RAG, embeddings, prompts Appréciées IaC (Terraform ou équivalent) Tests unitaires, intégration et fonctionnels Software Craftsmanship (code review, pair programming) Connaissances fonctionnelles Concepts IA : LLM, agents, assistants, hallucinations, prompts Usage critique et éthique de l’IA RGPD et enjeux éthiques liés à l’IA Langues Anglais technique courant – impératif (oral & écrit)
Freelance

Mission freelance
Data Engineer Senior

Groupe Aptenia
Publiée le
Informatica PowerCenter
Java
Oracle

2 ans
500-520 €
Bruxelles, Bruxelles-Capitale, Belgique
🔍 Nous recherchons un Ingénieur Data Senior pour renforcer une équipe en charge de la conception et de l’optimisation de pipelines ETL (Informatica PowerCenter) sur des bases de données massives (20 To+ : Oracle/SybaseIQ). Vous participerez également au développement d’applications Java (Springboot, Maven) et à l’amélioration des processus de release et de performance. 🎯 Vos missions principales ✅ Concevoir et optimiser des pipelines ETL complexes (Informatica PowerCenter). ✅ Développer des applications Java (Springboot, Maven) pour des solutions data robustes. ✅ Collaborer avec les analystes métiers pour traduire les besoins en solutions techniques. ✅ Gérer les releases : Sécuriser les changements, appliquer les bonnes pratiques de codage. ✅ Optimiser les performances : Traitement par lots, planification, automatisation. ✅ Résoudre des problèmes avec une approche pragmatique et proactive. ✅ Travailler en équipe pluriculturelle (environnement anglophone, secteur bancaire/assurance un plus).
Freelance

Mission freelance
Data Engineer SAP

Mon Consultant Indépendant
Publiée le
SAP

3 mois
800-820 €
Paris, France
Contexte du Projet : Nous recherchons un Data Engineer senior pour un projet stratégique de 14 semaines, visant à développer un système d'aide à la décision de planification Supply Chain chez un acteur de la défense. Le projet implique l'intégration de données provenant de multiples ERP (notamment SAP) et la création d'un moteur de calcul pour analyser l'impact des retards sur les pièces critiques et la disponibilité des systèmes finaux. Missions Principales : Expertise en extraction de données SAP (modules MM, PP, MRP) et modélisation de données industrielles complexes. Maîtrise des tables SAP (MRP, stocks, ordres, nomenclatures) pour structurer un Data Layer robuste et pertinent. Développement de moteurs de calcul (Python, SQL ou autres) permettant d'analyser l'impact des retards sur la Supply Chain. Adaptation à un environnement multi-sites et multi-ERP hétérogène. Interaction directe avec les consultants opérations/supply et les équipes IT SAP. Contribuer à la mise en place d'un outil d'aide à la décision et de planification pour identifier et tracer les risques de rupture. Compétences Techniques Requises : Solide expertise SAP sur l'extraction et la modélisation de données (MM/PP/MRP). Maîtrise des concepts et tables liés à la planification (MRP, stocks, ordres, BOM). Expérience confirmée en développement de moteurs de calcul (Python, SQL). Familiarité avec les environnements Data Analytics. Profil Recherché : Senior, avec une expérience significative dans des projets similaires. Capacité à s'adapter et à évoluer dans un contexte industriel sensible et exigeant. Excellentes compétences en communication et en travail d'équipe. Localisation et Durée : Localisation hybride, préférentielle : Bretagne, Brest, Bordeaux. Démarrage : Janvier (sous réserve de confirmation du projet). Durée : 14 semaines.
Freelance

Mission freelance
Data Engineer ( Lille, Nantes ou Strasbourg )- (h/f)

emagine Consulting SARL
Publiée le

12 mois
380-400 €
59000, Lille, Hauts-de-France
Au sein de la Data Factory du Groupe, vous serez en charge de préparer et mettre à disposition les données. Responsabilités: Échanger avec la MOA et les utilisateurs pour analyser et spécifier les besoins Modéliser et créer des flux sur l’ETL Assurer la recette et le suivi de production Résoudre les problèmes et assurer la maintenance corrective des systèmes en production. Must Have: Votre formation supérieure (Bac+5 ou Ecole d'Ingénieur) spécialisée en data Votre expérience de 6 ans minimum sur un poste similaire Votre parfaite maîtrise d’un ETL/ELT (idéalement Semachy) et de SQL Nice to Have: Votre connaissance de Vertica sera un atout supplémentaire Votre autonomie et votre esprit d'équipe Autres Détails: Télétravail : Vous pourrez bénéficier de 1 jour de télétravail par semaine après 3 mois d'intégration.
CDI

Offre d'emploi
Data Engineer (F/H)

Savane Consulting
Publiée le

50k-55k €
Rennes, Bretagne
Data Engineer - CDI - Rennes (35) - 50-55k€ Contexte Notre client, acteur coopératif majeur de la production animale et de l'agroalimentaire, poursuit sa transformation numérique via le programme "Élevage 4.0". Dans le cadre d'une création de poste, l'entreprise recrute un Data Engineer pour internaliser la compétence et structurer l'analyse de données issues des élevages connectés. Missions Rattaché(e) au pôle technique, vous prenez en charge le développement du moteur de données et la mise en place de l'architecture analytique. Vous intervenez de la collecte de la donnée brute jusqu'à sa mise à disposition fonctionnelle. Vos responsabilités principales sont : Orchestration & Pipelines : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour assurer la fiabilité des flux. Configuration de la Stack : Assurer la configuration et le maintien en conditions opérationnelles des outils de l'infrastructure data. Modélisation : Construire les modèles de données, les agrégats et les cubes d'analyse multidimensionnels pour servir les besoins métiers. Restitution : Développer les premiers tableaux de bord fonctionnels (focus sur la pertinence de la donnée et la structure, sans intervention sur l'UX/UI).
CDI

Offre d'emploi
Data Engineer Celonis

INFOGENE
Publiée le

54k-60k €
Neuilly-sur-Seine, Île-de-France
Missions principales : Piloter et développer des projets de Process Mining pour optimiser les processus métiers et améliorer la performance des flux. Assurer la maîtrise technique et fonctionnelle de Celonis pour la conception, le paramétrage et le déploiement des analyses. Collaborer avec les équipes Data Engineering et les experts métiers (POs, DPOs) pour définir les besoins et les solutions. Optimiser la préparation et la qualité des données pour garantir la fluidité et la transparence des flux. Participer à la migration vers GCP et assurer la continuité des projets Process Mining. Contribuer à la définition des standards et bonnes pratiques pour l’intégration des solutions. Compétences techniques requises : Celonis : expertise technique et fonctionnelle (indispensable). SQL : maîtrise pour la préparation et l’optimisation des données. Python : pour automatisation et intégration des flux. GitHub : gestion de version et collaboration. Connaissances solides en GCP et SAP . Compétences comportementales : Excellente capacité de communication avec des interlocuteurs techniques et métiers. Leadership et capacité à piloter des projets complexes. Esprit analytique et orienté optimisation des processus. Expérience : 8+ ans d’expérience dans le domaine du Process Mining et/ou Data Engineering. Expérience confirmée sur des projets de transformation digitale à grande échelle.
Freelance

Mission freelance
Data engineer

Comet
Publiée le
Azure Data Factory
Databricks
Scala

12 mois
400-560 €
Île-de-France, France
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques : Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code Le profil est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
CDI
Freelance

Offre d'emploi
Data Engineer Hadoop/Cloudera/Airflow/Spark

OBJECTWARE
Publiée le
Apache Airflow
Apache Spark
Cloudera

3 ans
40k-67k €
400-550 €
Île-de-France, France
Les missions sont : Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-60k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 3ny2m8r11j
Freelance

Mission freelance
Data Platform Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD

6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
287 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous