Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow

Votre recherche renvoie 63 résultats.
CDI

Offre d'emploi
Product Owner Data – Projet de Migration BI (H/F)

Hexateam
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
MSBI

45k-60k €
Paris, France

Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

CDI

Offre d'emploi
Consultant Data Engineer (H/F)

Harry Hope
Publiée le

45k-55k €
Cergy, Île-de-France

À ce poste, vous serez une référence technique dans le domaine du Big Data, aussi bien vis-à-vis des clients pour lesquels vous interviendrez, que de l'équipe de réalisation à laquelle vous appartiendrez. Vos missions : Participer aux processus d'avant-vente et à l'élaboration des propositions commerciales ; Diriger la conception et la mise en oeuvre de projets Big Data ; Concevoir et développer des solutions de traitement de données massives (Hadoop, Spark, Kafka, Python, Scala, Hive...) ; Mettre en place des pipelines de traitement de données ETL et assurer la qualité des données (NiFi, Talend, Airflow, SQL...) ; Assurer la gestion et l'optimisation des bases de données distribuées et NoSQL (Cassandra, MongoDB, ElasticSearch...). Plus largement, vous pourrez?enrichir nos bonnes pratiques en matière d'architecture et de développement dans le domaine du Big Data, effectuer de la veille technologique, élaborer des supports de formation technique pour nos clients et nos consultants, ou encore contribuer à l'animation du pôle technique

Freelance

Mission freelance
Product Owner Data – Projet de Migration BI (H/F)

Hexateam
Publiée le
Agile Scrum
Microsoft Power BI
SQL

2 ans
400-500 €
Paris, France

Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.

Freelance

Mission freelance
Développeur Python _ API _ React JS

CAT-AMANIA
Publiée le
Python
React

1 an
450-550 €
Paris, France

Je suis à la recherche pour un de nos clients d'un Développeur Python API React JS. L’objectif de la prestation porte sur le projet de remplacement de l’outil de lutte contre le blanchiment et le financement du terrorisme. Ce projet implique le développement des flux entrants et sortants de l’application de Screening (ASAM), le stockage des données et la création d’une interface pour le pilotage de l’activité. • Les connaissances techniques requises : o Jira, o Python, Flask, SQL Alchemy, o Cloud GCP : BigQuery, PostGresql, Airflow, API RESTFUL, … o React JS o La connaissance d’Okta, Swagger et Docker sont un plus Une expérience significative dans le développement est demandée dans les domaines suivants : • développement Back End (API, Python, Cloud function) • développement Front End (React JS) Savoir-faire sur : • Projet en méthode Agile, Kanban, RPE • Principes RGPD

Freelance
CDI

Offre d'emploi
Ingénieur de production

5COM Consulting
Publiée le
Linux

1 an
Nanterre, Île-de-France

Nous recherchons un ingénieur de production pour notre client grand compte basé à la Paris. 🎯 Objectifs de la mission : Intégration et paramétrage de solutions logicielles Suivi des mises en production, gestion des incidents et changements Contrôle de la qualité des livrables Installation et configuration des modules applicatifs Réalisation des tests (unitaires, d’intégration…) Collaboration étroite avec les Référents Techniques (RT) Reporting et participation à la veille technologique 💻 Environnement technique : Les compétences suivantes sont requises (niveau ≥ 3 sauf mention contraire) : Systèmes : Unix, Linux, Windows Langages : Shell, Python, Java, SQL CI/CD : Jenkins, GitLab, GitHub Supervision : Zabbix, Instana Ordonnanceur : VTOM Conteneurisation : Docker, Kubernetes Outils DevOps : Ansible, Terraform, Puppet, Airflow Base de données : Redis, PostgreSQL, MongoDB, MS SQL Messagerie : Kafka, RabbitMQ, IBM MQ Orchestration / Workflows / Logs : HAProxy, NGINX, LOKI, Elasticsearch, Prometheus, Grafana, Kibana

Freelance

Mission freelance
  Tech lead Big data Hadoop , Spark, Hive Kafka / 550 e par j

BI SOLUTIONS
Publiée le
Big Data
PySpark

2 ans
400-550 €
Île-de-France, France

Tech lead Big data Hadoop , Spark, Hive Kafka / 550 e par j Référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solution Big Data, ainsi que le pilotage technique de projets. étude et prise en compte des besoins de traitement de la data, gestion des priorités et de la cohérence des besoins, choix des outils et solutions conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé Maîtrise des technologies du Big Data telles que Hadoop, Spark, Hive/Impala, Kafka - Excellentes compétences en programmation, maitrisant des langages tels que : Python, Scala ou Java, - Capacité à résoudre des problématiques complexes avec un esprit de synthèse et une pensée analytique - Bonne expérience dans la conception et la mise en œuvre de pipelines de données fiables et scalables, en utilisant des frameworks tels que Spark, Oozie, Airflow … - Bonnes compétences en mathématiques et statistiques - Connaissances monétiques 550 e par j

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Offre premium
Freelance

Mission freelance
Data ingénieur Python Arflow 400 e par jour

BI SOLUTIONS
Publiée le
AWS Cloud
Python

2 ans
300-400 €
Île-de-France, France

Data ingénieur Python Arflow 400 e par jour je suis à la recherche d’un profil Data Ingénieur confirmé (4-5 ans XP, avec de solides compétences en : Python Arklow, IOT ou traitement de données en temps réel, SQL et AWS Développement en python AIRFLOW , AWS, SQL , IOT Bonne connaissance de Python Bonne capacité d'adaptation, bon relationnel , ayant travaillé sur des projets similaire. Bonne expression Mission gagnée en région Parisienne Asap Budget 400 e par jour Merci par avance pour la proposition de CV

Freelance
CDI

Offre d'emploi
Expert Cloud

VISIAN
Publiée le
Python
Terraform

1 an
40k-45k €
400-860 €
Île-de-France, France

Descriptif du poste Au sein de la division Automation Lab, vous intégrerez une équipe dynamique, en charge du maintien en condition opérationnelle des différents orchestrateurs chargés de provisionner les infrastructure de [entreprise bancaire] et ses clients (entités [groupe bancaire]). Les orchestrateurs sont composés des outils Hashicorp Terraform et Airflow, ainsi que de développement en java ou en python. Mission Dans le cadre de sa gestion de son offre d'infrastructure, l'équipe Cloud en charge de l'orchestrateur des différents Cloud privés [groupe bancaire], recherche un développeur expert PYTHON qui traitera des sujets liés à la résilience. À ce titre, il participera à : La conception et l'écriture de l'orchestrateur afin de permettre le provisioning dans différents environnements onPremises, Clouds Le RUN (DEVOPS) en autonomie Les développements pilotés en mode AGILE SCRUM Les compétences en JAVA sont appréciables. Responsabilités Revoir et assurer la documentation Maintenance de certains orchestrateurs (micro-services)

Freelance

Mission freelance
Analytics Engineer Senior - Workday Finance (localisation Lille)

Cherry Pick
Publiée le
DBT
SQL

12 mois
470-530 €
Lille, Hauts-de-France

Contexte du poste L’Analytics Engineer est chargé de délivrer des datasets modélisés pour un domaine métier afin d'accélérer les cas d’usage. Il en assure la qualité , la disponibilité , le suivi et l’ accessibilité , pour permettre aux utilisateurs d’exploiter efficacement les données (Self Service Analytics, analyses, modèles, dashboards). Missions principales 1. Délivrer les bonnes données, à temps Assurer le rafraîchissement fréquent et fiable des données pour soutenir la prise de décision. Garantir la stabilité et la fiabilité des datasets exposés. Corriger rapidement les données corrompues. Anticiper et planifier l’évolution des datasets. Déployer les évolutions avec un délai court mais soutenable. 2. User Centric Connaître les utilisateurs et comprendre leurs usages métiers. Collaborer avec les PM Analytics, Data Analysts, Data Scientists et BI Engineers. Automatiser puis industrialiser les datasets nécessaires aux use cases. Suivre et mesurer l’utilisation réelle des datasets. Définir et communiquer le niveau de confiance dans les données. Informer sur l’état et les éventuelles corruptions des datasets. 3. Playmaker / Team player Participer au recrutement et à l’onboarding des nouveaux membres. Contribuer à la communauté Data (partage d’expérience, ateliers, revues de code, pair programming). Collaborer avec les équipes Core Data Products pour fiabiliser les pipelines. Être force d’entraide et de transmission auprès des autres Analytics Engineers. 4. Better Way Améliorer en continu les pratiques de delivery data. Faire évoluer la stack et les outils. Être proactif sur l’amélioration des processus. Contribuer à la réduction de l’impact écologique et économique des solutions déployées. Compétences techniques : Data modeling dbt SQL Tests and expectations Git Airflow Python Spark Data Architecture Databricks Redshift Indicateurs de performance Fiabilité et fraîcheur des données exposées Temps de correction des anomalies Fréquence des déploiements et time to market des datasets Satisfaction et autonomie des utilisateurs Contribution à la communauté Data et aux rituels d’équipe

CDI

Offre d'emploi
PPO / PO

Savane Consulting
Publiée le

50k-65k €
Île-de-France, France

Le projet s’inscrit dans une stratégie de modernisation, incluant la migration de clients vers cette nouvelle offre et l’introduction de fonctionnalités critiques. 1.2. Organisation Le projet a impliqué : • Une équipe dédiée composée de 4 développeurs, 1 architecte (partagé), 1 Scrum Master et 1 Tech Lead. • Collaboration avec des équipes transverses de BP2I (sécurité, cloud, support technique). • Un partenariat stratégique avec les parties prenantes métier et techniques pour assurer l’alignement des objectifs. 2. Rôle du PO 2.1. Description de notre rôle : En tant que Product Owner, les responsabilités incluaient : • Gestion de la roadmap produit : o Priorisation des objectifs stratégiques. o Ajustement des priorités en fonction des contraintes et besoins des parties prenantes. • Gestion du backlog : o Rédaction et découpage des User Stories. o Collaboration étroite avec les développeurs pour définir les tâches techniques. • Animation Agile : o Participation active et animation des plénières QAP (agilité à l’échelle). o Organisation des cérémonies Agile : sprint planning, rétrospectives, daily scrums. • Accompagnement client : o Support personnalisé pour la migration de trois clients stratégiques. o Organisation de démonstrations et d’événements pour présenter les évolutions produit. • Améliorations fonctionnelles et techniques : o Implémentation de fonctionnalités clés telles que les backups/restaurations à la demande, activation d’Integration Services (ETL) et SSRS (BI). o Renforcement de la sécurité avec TLS et TDE, et externalisation des backups. o Standardisation des comptes utilisateurs et optimisation du monitoring avec Quest. • Montée en compétences de l’équipe : o Introduction d’Airflow pour remplacer IBM BPM. o Recrutement et formation d’un nouveau collaborateur pour gérer l’augmentation de la charge de travail. • Echanges fréquents avec IBM en anglais. Environnement technique et fonctionnel • Produit : Platform as a Service (PaaS) • Outils de gestion : JIRA, ServiceNow, Clarity. • Méthodologie : Agile (Scrum). • Bases de données : SQL Server, T-SQL. • Automatisation : Integration Services, SSRS, PowerShell. • Monitoring : Quest. • Sécurité : TLS, TDE. • Cloud : IBM

CDI
Freelance

Offre d'emploi
Data Engineer | AWS | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

12 mois
Île-de-France, France

Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

Freelance
CDI

Offre d'emploi
Expert ServiceNow APP Engine, workflow , orchestration

VISIAN
Publiée le
ServiceNow
Workflow

1 an
40k-45k €
400-690 €
Montreuil, Île-de-France

Contexte & objectif Au sein d’un grand groupe bancaire européen , la DSI met en place un datawarehousing des référentiels groupe (clients, produits, organisations, etc.). L’objectif est de sécuriser le cycle de vie de l’information (création, validation, mise à jour, archivage) via des workflows robustes et traçables, en s’appuyant sur ServiceNow et des orchestrateurs du SI. Missions principales Concevoir et développer des workflows complexes de gestion du cycle de vie des données référentielles. Orchestrer des enchaînements inter-outils en interaction avec d’autres ordonnanceurs/ETL (ex. Airflow, Control-M, Talend, Informatica) et APIs internes. Industrialiser CI/CD des composants ServiceNow (branching, packaging, déploiements multi-environnements, tests automatisés). Piloter des prestataires/équipes externes : cadrage, planification, revues de code, suivi de qualité et de délais. Assurer la conformité (auditabilité, séparation des tâches, gestion des droits) et la traçabilité des modifications de données. Mettre en place la supervision (alerting, SLA, reporting d’exécution) et gérer l’amélioration continue.

Freelance
CDI

Offre d'emploi
IA Engineer (H/F)

WINSIDE Technology
Publiée le
Python
Vertex AI

6 mois
40k-60k €
400-610 €
Lille, Hauts-de-France

Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2025. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Contexte : Concevoir et entraîner des modèles de machine learning / deep learning adaptés aux besoins métier. Réaliser des expérimentations et des benchmarks pour optimiser les performances. Déployer les modèles dans un environnement cloud (GCP). Mettre en place des pipelines CI/CD pour automatiser les tests, le déploiement et la mise à jour des modèles. Assurer le monitoring des performances en production (latence, précision, dérive des données…). Implémenter des mécanismes de retraining automatique ou semi-automatique. Gérer les versions des modèles et des datasets. Collaborer avec les équipes DevOps et Data pour assurer la robustesse et la scalabilité des solutions. Rédiger des documentations techniques et des guides d’utilisation. Promouvoir les bonnes pratiques de développement IA (tests unitaires, revue de code, sécurité…). Type de contrat : CDI ou freelance Localisation : Lille / Télétravail hybride Rémunération : 45 – 60 K€ et TJM selon profil et expérience Et toi dans tout ça, tu as : Minimum 5 ans d’expérience sur un poste similaire (hors stage et alternance). Des compétences sur l'environnement technique ci-dessous : Langages : Python (confirmé). Cloud : Google Cloud Platform (GCP), notamment Vertex AI, Cloud Functions, BigQuery. Outils MLOps : MLflow, Kubeflow, Airflow, Docker, Kubernetes. CI/CD : GitLab CI, GitHub Actions, Terraform. Monitoring : Prometheus, Grafana, ou outils équivalents. Une connaissance des environnements Agile et Scrum. Un anglais professionnel. Une communication claire Ce que tu trouveras chez Winside.. Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme Un process simple et rapide : Un premier échange pour faire connaissance. Un entretien avec notre équipe RH, en l'occurrence Perrine. Un entretien technique suivi d’un échange avec la direction. Une réponse rapide et voire une proposition d'embauche

CDI
Freelance

Offre d'emploi
Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France

Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

63 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous