Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 338 résultats.
CDI
Freelance

Offre d'emploi
Chef de projet Technique - Data Azure + Databricks + Power BI (H/F)

Publiée le
Azure
Databricks
Microsoft Power BI

1 an
Paris, France
Télétravail partiel
Mission longue durée – Paris / Aix-en-Provence / Lausanne (Suisse) Secteur d’activité : Horlogerie de luxe Missions Pilotage complet du projet : planning, jalons, risques, reporting, animation des comités. Suivi financier : budget, consommés, prévisionnels, arbitrages, revues internes/client. Coordination et validation des livrables techniques et fonctionnels. Leadership technique sur Azure (IAM, architecture cloud), Databricks (pipelines, optimisation, ingestion), Power BI (modélisation, datasets, gouvernance). Gestion du relationnel client multi-acteurs, communication claire, gestion des attentes et décisions. Coordination d’une équipe pluridisciplinaire et diffusion des bonnes pratiques data & cloud . Compétences techniques Maîtrise de Microsoft Azure (Data Lake, Data Factory, SQL/Synapse, DevOps). Expertise Databricks (Spark, optimisation, CI/CD, ingestion/transformation). Très bon niveau Power BI (DAX, modélisation, datasets, gouvernance). Bonne compréhension des architectures data modernes et environnements CI/CD. Compétences gestion & relationnel Méthodologies Agile et cycle en V. Pilotage planning/risques/livrables, gestion budgétaire avancée. Leadership, communication, diplomatie, gestion de situations sensibles. Capacité à décider rapidement et à fédérer une équipe.
Freelance
CDI

Offre d'emploi
Product Owner Data – Expertise Power BI, Dataiku & Tableau

Publiée le
Data analysis
Dataiku
Product management

2 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Définir la vision produit et la roadmap Data en lien avec les métiers. Prioriser le backlog et rédiger les user stories (méthodologie Agile). Superviser la préparation, la transformation et la qualité des données dans Dataiku. Piloter la production de dashboards et rapports dans Power BI et Tableau. Garantir la gouvernance et la cohérence des modèles de données. Collaborer avec data engineers, data scientists et équipes métier. Suivre les KPI, mesurer la valeur et assurer l’amélioration continue du produit. Compétences requises Excellente maîtrise : Power BI : Modèle tabulaire, DAX, dataprep, publication & sécurité Dataiku : Data pipelines, recipes, automation Tableau : Visualisation avancée, storytelling, calculs Solides compétences en modélisation de données (SQL, Star/Snowflake schema). Très bonne compréhension des enjeux Data et BI.
Freelance

Mission freelance
Data Engineer Python / AWS / Airflow / Snowflake

Publiée le
Apache Airflow
AWS Cloud
Python

12 mois
100-550 €
Île-de-France, France
Télétravail partiel
Conception & développement de pipelines Implémenter de nouveaux flux de données batch et streaming . Développer des pipelines ETL / ELT en Python et Airflow pour les traitements planifiés, et via NiFi ou Kafka pour les données en temps réel. Assurer l’intégration et la mise à disposition des données dans Snowflake . Industrialisation & bonnes pratiques Participer aux revues de code , aux tests unitaires et d’intégration . Contribuer à l’ industrialisation des pipelines avec des pratiques CI/CD robustes. Maintenir la documentation technique à jour et contribuer à l’amélioration continue des process. Maintenance & optimisation Garantir la maintenance corrective et évolutive des flux existants. Participer à la mise en place du monitoring , des alertes et des bonnes pratiques d’exploitation. Optimiser les performances, la fiabilité et la qualité des traitements de données.
Freelance

Mission freelance
Data Analyst - Infogérance - Lille (H/F)

Publiée le
Microsoft Power BI
SQL

6 mois
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Rejoignez l'une des entreprises leaders dans l'optimisation et la transformation digitale au sein du secteur des services numériques. Basée à Lille et rayonnant sur tout le territoire français, notre entreprise s'engage à offrir des solutions innovantes à ses clients afin de les accompagner dans leur évolution. Face à une croissance constante et à une demande accrue pour des analyses de données précises et transformantes, nous recherchons activement un(e) Data Analyst pour renforcer notre pôle Data. Vous travaillerez étroitement avec les métiers pour transcrire leurs besoins en solutions data-driven, assurant la qualité et la pertinence des insights. Missions - Élaborer le cadrage fonctionnel des cas d’usage avec les différents métiers de l'entreprise. - Traduire des besoins métier en datasets, KPIs et tableaux de bord efficaces. - Réaliser des explorations approfondies de données avec un fort accent sur le storytelling. - Assurer la documentation et la qualité des données. - Contribuer à la mise en œuvre des cas d’usage sur Power BI / Fabric en tant que data consommateur. - Fournir un support aux POC/expérimentations IA en collaboration avec les Data Engineers.
Freelance

Mission freelance
Ingénieur DevOps Cloud Azure – Confirmé / Expert (Data & BI)

Publiée le
Architecture ARM
Azure
Azure DevOps

6 mois
Île-de-France, France
Description du poste : Intégré au Data Lab de la Direction Digital & Data d'un grand groupe Retail, vous pilotez l'architecture et l'industrialisation des projets BI et Data sur le Cloud Microsoft Azure. Au sein d'une équipe Agile d'une dizaine de personnes, vous assurez la liaison entre les équipes techniques (Dev, Sécurité, Ops) et projets. Vos missions s’articulent autour de trois axes majeurs : Construction et Déploiement : Vous concevez et dimensionnez les infrastructures Cloud Public (Azure). Vous déployez les architectures cibles pour les projets Big Data (DataLake, EventHub, Databricks). Industrialisation (DevOps) : Vous garantissez l'approche "Infrastructure as Code" (IaC) via ARM et YAML. Vous configurez et maintenez les pipelines CI/CD (Azure DevOps, Git) pour automatiser les déploiements. Exploitation et Sécurité : Vous mettez en place la supervision et assurez la haute disponibilité des services. Vous gérez le Maintien en Condition Opérationnelle (MCO), les sauvegardes, les accès et la sécurité, tout en participant aux validations techniques et aux audits.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps / Data Platform (Kubernetes – GitLab – Vault)

Publiée le
Azure Kubernetes Service (AKS)
CI/CD

3 ans
Île-de-France, France
Contexte Nous recherchons un Ingénieur DevOps / Data Platform pour accompagner notre client dans le cadre du service de Data Architecture Doc Factory . L’objectif est de fournir et de maintenir l’outillage facilitant l’intégration des solutions Data du Groupe, de définir des standards d’intégration, et d’accompagner les équipes projet dans leurs usages. 🎯 Missions Vous intervenez au sein de la Data Factory et êtes responsable de : Maintenance & Exploitation Assurer le MCO des outils d’intégration (CodeHub, Vault, Consul, GitLab CI, ArgoCD, Kubernetes). Suivre la stabilité, la performance et la sécurité des environnements. Industrialisation & Automatisation Améliorer l’industrialisation des outils et pipelines CI/CD. Automatiser les déploiements, renforcer la standardisation via des templates. Migration OpenShift & Sécurité Participer au projet de migration vers OpenShift BNP Paribas. Sécuriser les environnements (RBAC, secrets, policies, durcissement). Standardisation & Templates Maintenir et enrichir les modèles d’intégration (pipelines, charts Helm, manifests K8s). Garantir leur conformité aux standards Data & sécurité du Groupe. Accompagnement & Support Accompagner les équipes Data dans le design et l’intégration de leurs solutions. Former et conseiller sur les bonnes pratiques DevOps/DataOps. Monitoring & Observabilité Contribuer à l’amélioration du monitoring (Dynatrace, alerting, dashboards). Suivre la fiabilité et la performance des solutions intégrées. Innovation Tester de nouvelles technologies et proposer des améliorations pour enrichir l’offre de service. Participer aux études d’architecture et PoC Data Platform.
Freelance

Mission freelance
Ingénieur Data Power BI

Publiée le
Microsoft Power BI
Power Automate

1 an
400-550 €
Blaye, Nouvelle-Aquitaine
Le consultant Data Power BI conçoit, développe et optimise des rapports et tableaux de bord avancés en s’appuyant sur une maîtrise experte de Power BI, incluant DAX et M. Il exploite ses compétences en Python, SQL et ELK pour structurer, analyser et visualiser des données complexes, et contribue à l’automatisation des processus via PowerAutomate et PowerApps. Capable d’intégrer des données provenant d’API REST et de renforcer l’utilisation des outils collaboratifs comme SharePoint et Excel (VBA), il accompagne les équipes métiers dans la compréhension, l’exploitation et la valorisation des données.
Freelance

Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)

Publiée le
Apache
Apache NiFi
Apache Spark

12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Freelance

Mission freelance
Ingénieur Data Ops - IA GEN - Azure (H/F)

Publiée le
Azure
Azure AI Foundry

6 mois
Lille, Hauts-de-France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un(e) Ingénieur Data Ops : Le rôle couvre notamment : La mise en place d’une plateforme d’IA générative (Azure AI Foundry) ; L’industrialisation des flux et processus DataOps ; La mise en place d’API sécurisées via Azure API Management ; L’automatisation des déploiements à l’aide de GitLab CI/CD ; Le développement en Python ; La mise en place de la traçabilité, de l’observabilité et de la gouvernance des usages IA. Le contexte est structurant, très exposé en interne, avec de la construction from scratch, de l’architecture, de l’industrialisation et un vrai rôle de référent technique sur la GenAI.
Freelance

Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005

Publiée le

10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
CDI
Freelance

Offre d'emploi
Chef de Projet Technique IaaS, Data & Cloud

Publiée le
Cloud
IaaS (Infrastructure-as-a-Service)
Openshift

1 an
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un Chef de Projet Technique pour rejoindre une équipe spécialisée dans l’infrastructure, le cloud, la donnée, l’IA et le DevOps. MISSIONS PRINCIPALES : Piloter des projets sur les périmètres IaaS et DATA Définir les solutions cibles en collaboration avec les experts et les utilisateurs Coordonner l’ensemble des parties prenantes Structurer et animer la gouvernance des projets Établir et suivre les plans d’investissements et les budgets Identifier, analyser et gérer les risques projets Garantir la production des livrables selon la méthodologie interne
Freelance

Mission freelance
Dev back-end sénior (Java/Springboot) - H/F - 93

Publiée le
API REST
Java
RabbitMQ

1 an
Saint-Denis, Île-de-France
La mission consiste à participer activement à la mise en œuvre et à l’évolution d’une application nationale de gestion en temps réel, dans le cadre d’une refonte complète déjà planifiée pour 2026. Le projet présente un haut niveau de complexité, tant sur le plan fonctionnel que technique, en raison de son périmètre étendu et de son intégration avec de nombreux systèmes métiers stratégiques. L’architecture applicative, en cours de modernisation, repose sur plusieurs sources de données critiques, ce qui impose des exigences fortes en matière de performance et de fiabilité. Parallèlement, le prestataire devra également assurer la maintenance évolutive et corrective de la version actuelle de l’application, toujours en production, afin de garantir la continuité du service et le traitement des anomalies ou évolutions mineures. Ce contexte requiert une expertise technique confirmée en développement back-end. Objectifs de la mission Dans le prolongement du contexte précédemment décrit et des enjeux techniques identifiés, la mission vise à renforcer l’équipe de développement par l’intégration d’un développeur back-end senior. Ce renfort a pour but de garantir la réussite du plan de travail prévu pour 2026, incluant à la fois la refonte complète de l’application (version 2) et la maintenance opérationnelle de la version actuelle (version 1). Description détaillée des activités Le prestataire aura pour principales responsabilités de : Participer aux travaux d’architecture et aux décisions techniques dans le cadre de la refonte de l’application ; Contribuer à la compréhension et à la traduction des besoins fonctionnels en solutions techniques ; Réaliser les développements back-end nécessaires à la modernisation du code ; Garantir la qualité, la performance et la fiabilité du code produit ; Accompagner éventuellement un développeur junior dans le cadre d’un stage ou d’un appui technique ; Participer à la mise en place et à l’amélioration continue de la chaîne d’intégration et de déploiement ; Assurer la maintenance corrective et évolutive de la version actuelle de l’application.
Freelance

Mission freelance
Ingénieur DATA – Coordonnation & Support Technique IA Industrielle

Publiée le
3DEXPERIENCE (3DX)

1 an
400-550 €
Belgique
Télétravail partiel
Missions Coordination : Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher, en exploitant les techniques d’IA pour faciliter la gestion et la migration des schémas de données. Documenter, préparer et suivre les scripts et workflows de migration automatisés, assister l’identification des correspondances data via IA (machine learning, NLP…). Proposer les premiers use cases DATA & IA opérationnels pour la ligne de production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Assurer la veille et le reporting sur les sujets Data & IA, optimiser la collaboration multi-métiers. Missions Techniques : Être le bras droit du coordinateur Data, prendre en charge l’implémentation des scripts et workflows de migration de données (DataPrep, ETL, IA), sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique, etc. Structurer les datasets pour l’entraînement et le déploiement sur la ligne (règles de qualité, normalisation, automatisation des flux). Assurer la documentation technique et la transmission des compétences vers les équipes.
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Freelance

Mission freelance
Ingénieur MLOps Data & IA

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Freelance
CDI

Offre d'emploi
Data Analyst - Qlik Sense - Rennes

Publiée le
Data visualisation
Qlik Sense
Qlikview

3 mois
40k-45k €
400-450 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons pour le compte de notre client grand compte national un(e) consultant développeur décisionnel . Ses Principales missions : Accompagnement des métiers dans l’expression des besoins et dans les recettes Modélisation décisionnelle Conception, réalisation et maintenance de tableaux de bord ou applications décisionnelles sous QlikView et/ou QlikSense Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l'écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort. Nous mettons un point d'honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d'appartenance. Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.
1338 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous