Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 049 résultats.
Offre premium
CDI
Freelance

Offre d'emploi
Business Analyst / Data (F/H)

Argain Consulting Innovation
Publiée le
Business Analyst
Data analysis
SAP

1 an
40k-45k €
420-450 €
Pays de la Loire, France
Dans le cadre d’un projet autour des flux data et de l’environnement SAP, nous recherchons un Business Analyst / Data Analyst disposant d’une bonne expertise SAP et Talend . Missions Recueillir et analyser les besoins métiers liés aux flux de données Faire le lien entre les équipes métiers, data et l’équipe SAP Challenger les solutions proposées par l’équipe SAP Participer à la conception et à l’optimisation des flux data Réaliser le paramétrage et le développement Talend Contribuer à la documentation et au suivi des évolutions
CDI
Freelance

Offre d'emploi
Data Engineer

Signe +
Publiée le

24 mois
40k-45k €
286-450 €
Niort, Nouvelle-Aquitaine
Mission : Un profilData ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d'une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d'amélioration continue -Participation active aux rituels agiles 3j/semaine sur site Compétences techniques requises : Azure Databricks PySpark Delta Lake Python
Freelance
CDI

Offre d'emploi
Architecte technique Sécurité AWS - Data (H/F)

AVA2I
Publiée le
Amazon S3
AWS Cloud
Data Lake

4 ans
Île-de-France, France
Dans le cadre de la mise en place et de la sécurisation d’une plateforme Data Cloud, vous intervenez sur des architectures basées sur AWS intégrant des composants Data Lake, Data Warehouse et des services de stockage type S3. L’objectif est de garantir la sécurité des accès, la protection des données et la conformité dans un environnement à forts enjeux. 🛠️ Environnement technique Cloud : AWS Stockage : Amazon S3 Data : Data Lake / Data Warehouse Sécurité : IAM (Identity & Access Management) Outils : CI/CD, Infrastructure as Code (Terraform/CloudFormation – souhaité 🚀 Missions 🔐 Sécurité Cloud Définir et appliquer les politiques de sécurité AWS Gérer les accès via IAM (rôles, policies, permissions) Mettre en œuvre les principes de least privilege ☁️ Architecture Participer à la conception d’architectures sécurisées Sécuriser les flux et le stockage de données (S3, Data Lake) Contribuer à la robustesse des plateformes Data 📊 Gouvernance Assurer la conformité (RGPD, normes internes) Mettre en place des contrôles et audits de sécurité Participer à la gouvernance des accès et des données ⚙️ Amélioration continue Automatiser les contrôles de sécurité Mettre en place du monitoring et des alertes Promouvoir les bonnes pratiques sécurité auprès des équipes
CDI
Freelance

Offre d'emploi
Data Scientist

VISIAN
Publiée le
Dataiku
Deep Learning
Elasticsearch

1 an
Paris, France
Missions Conception et développement de services Data et IA pour la connaissance clients et la performance business Pilotage de la performance commerciale Détection d’insights, recommandations, prédictions Détails techniques Machine Learning : IA générative et agentique : techniques de mises en œuvre de LLMs, architectures RAG et agentiques, … Techniques NLP / NLU : embeddings, transformers, BERT, … Machine learning : régression, classification, clustering, détection d’anomalies, moteur de recommandations, séries temporelles Deep learning (architectures, transfert learning, fine tuning, …) IA responsable et de confiance, IA explicable, maîtrise des biais Maîtrise de Python pour la data science (sklearn, pytorch, keras, LangChain, LangGraph, …) Bases vectorielles et d’indexation texte et embeddings : Elasticsearch, Faiss, … Expérience avec la plateforme Dataiku Outils informatiques Langage : Python Prototypage : Gradio, Streamlit Outil de versioning : git Cloud : AWS Bedrock Expérience avec une architecture On prem serait un plus Curiosité intellectuelle, autonomie et réactivité Capacité de communication : capacité à analyser et synthétiser, pédagogie Force de proposition : capacité à proposer des solutions innovantes
CDI

Offre d'emploi
DATA STEWARD CRM / DATA GOVERNANCE H/F

Savane Consulting
Publiée le

60k-75k €
Seine-et-Marne, France
Contexte du poste : Nous recherchons un Data Steward afin d’intervenir au sein de la Direction Commerciale, dans le cadre du déploiement d’un CRM Sales. Vous interviendrez sur un périmètre stratégique (offres commerciales, contrats, produits) avec un enjeu clé autour de la migration, de la qualité et de la gouvernance des données. Vous intégrerez un programme structurant avec des jalons majeurs à court terme, où la qualité des données sera déterminante pour la réussite des mises en production. Votre rôle sera central pour assurer la fiabilité, la structuration et la valorisation des données métiers, en lien étroit avec les équipes commerciales, la DSI et les équipes projet CRM. Missions principales : Piloter la migration des données vers le CRM (stratégie, mapping source/cible, fichiers d’import) Formaliser les cycles de vie des référentiels (contrats, campagnes, produits) Consolider les impacts liés aux évolutions des applications (décommissionnement, couplage SI) Animer des ateliers métiers pour accompagner les changements de pratiques Définir et mettre en œuvre les règles de qualité des données (complétude, cohérence, fraîcheur) Mettre en place le monitoring de la qualité (Power BI ou équivalent) Produire les supports de formation liés aux bonnes pratiques data Contribuer au catalogage des données dans Collibra Documenter les référentiels et les univers de données (offres, contrats, produits) Définir les règles de gouvernance de la donnée avec les parties prenantes Assurer le suivi continu de la qualité des données Documenter les impacts des évolutions des référentiels sur le SI Produire les reportings et bilans de suivi
Freelance

Mission freelance
Data Governance Manager (Stewardship & Adoption)(H/F)

Freelance.com
Publiée le
Big Data

5 mois
360-440 €
Bordeaux, Nouvelle-Aquitaine
Objectif de la mission Structurer, déployer et faire adopter la gouvernance data au niveau opérationnel, en mettant en place une communauté de Data Stewards et en rapprochant les équipes data des métiers. 🧩 Ce que vous allez faire concrètement Vous intervenez dans un rôle transverse , orienté cadre, adoption et animation , et non comme Data Steward opérationnel. 🔹 Structuration de la gouvernance Définir et déployer le modèle de Data Stewardship (rôles, responsabilités, rituels) Clarifier les interactions entre Data Owners, Data Stewards, équipes data et techniques 🔹 Animation & adoption Créer et animer une communauté de Data Stewards Accompagner la conduite du changement Développer l’usage des outils de gouvernance (catalogue, documentation…) 🔹 Onboarding & outils Construire les kits, standards et supports pour les Data Stewards Accélérer la documentation des assets data 🔹 Alignement métier & data Organiser des ateliers avec les équipes métiers Identifier les irritants et besoins Structurer et prioriser un backlog transverse 🔹 Intégration dans les projets Intégrer la gouvernance dès les phases de cadrage (“governance by design”) Étendre la couverture du data catalog (y compris sur des sujets IA) ⚙️ En résumé C’est une mission de pilotage et d’animation de la gouvernance data , avec un fort enjeu d’ adoption, de structuration et d’impact métier , dans un environnement déjà outillé.
Freelance
CDI

Offre d'emploi
Dessinateur Projeteur Electricité F/H

AGH CONSULTING
Publiée le
Data Center
Gestion de projet

6 mois
Attiches, Hauts-de-France
Basé sur notre agence, en périphérie de Lille (59), vous devez créer et réaliser des dossiers techniques associés aux affaires. Missions : o Etudier le dossier technique qui comprend le cahier des charges, les schémas fonctionnels et le dossier de matériel o Rechercher la meilleure solution technique qui respecte le budget, les contraintes et les normes techniques o Concevoir les schémas et les plans du futur ouvrage ou de l'évolution de l'ouvrage existant o Se rendre, si nécessaire, sur chantier pour effectuer des relevés terrain
Freelance

Mission freelance
Consultant senior data governance

Mon Consultant Indépendant
Publiée le
Data quality

3 mois
600-640 €
Paris, France
Pour un client bancaire : 1 ETP Consultant Senior Data Gouvernance Mission : Appuyer le responsable de service sur la refonte du cadre de gouvernance des données dans un contexte de réponse aux constats BCE. Livrables attendus : • Refonte de la politique de gouvernance des données (périmètre élargi au groupe et aux filiales) • Scénarios de déploiement de la gouvernance auprès des 5 filiales critiques • Stratégie de lignage fonctionnel des données prioritaires (BCBS / données critiques) Principaux interlocuteurs : équipe Data interne, programme réglementaire data, 5 filiales (2 ateliers par filiale). Profil recherché : • Senior, solide expérience en gouvernance des données (stratégie, construction de politiques, gouvernance fédérée) • À l'aise avec les notions de data domain et de lignage fonctionnel • Capacité à démarrer très rapidement et à produire des livrables de cadrage de qualité 1 ETP Consultant Senior Data Quality Mission : Accompagner les équipes sur la montée en maturité Data Quality dans un contexte réglementaire (réponse aux constats BCE). Activités principales : • Accompagnement des filières réglementaires (Risques, Finance) sur la Data Quality : identification des interlocuteurs, animation d'ateliers, formation • Mise à jour du cadre de contrôle Data Quality : gap analysis entre l'existant et les exigences BCE, révision des seuils d'acceptabilité, définition des exigences pour les objets métiers "or" (données prioritaires des reportings réglementaires) • Étude de convergence des outils ticketing : analyse Jira vs Redmine et recommandation sur l'outil à pérenniser Profil recherché : • Senior, expérience confirmée en Data Quality et gouvernance des données • Capacité à produire et à faire avancer les chantiers (pas uniquement un animateur d'ateliers) • Bonne connaissance des enjeux réglementaires bancaires (BCBS, BCE) appréciée
Freelance
CDI
CDD

Offre d'emploi
Expert Infrastructure Windows Senior – Lyon

RIDCHA DATA
Publiée le
Active Directory
Ansible
Internet Information Services (IIS)

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre de la construction et de l’exploitation d’infrastructures Microsoft, nous recherchons un Expert Windows Senior pour intervenir sur des environnements complexes en Active Directory , avec un fort focus sur l’automatisation , le support niveau 3 et l’optimisation des infrastructures existantes. Vos missions Concevoir et déployer des infrastructures Windows Server robustes et sécurisées Assurer le support niveau 3 et la résolution d’incidents complexes Automatiser les tâches d’exploitation via PowerShell et Ansible Administrer et maintenir le parc informatique via SCCM Gérer et administrer les environnements Active Directory Intervenir sur les serveurs d’applications et infrastructures associées Documenter les procédures et participer à la montée en compétences des équipes Compétences techniques requises Expertise avancée sur Windows Server Solide maîtrise de Active Directory / Microsoft AD Très bonne expérience en administration SCCM Bonne maîtrise de : RDS Server SQL Server IIS Expertise en PowerShell Maîtrise confirmée de Ansible Connaissances en OpenStack / Virtualisation fortement appréciées
Freelance

Mission freelance
QA Data

Cherry Pick
Publiée le
Azure
Databricks

12 mois
340-390 €
Paris, France
Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour l’ensemble des enseignes et des fonctions d’appui du client En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad Équipement de la Maison. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les défauts avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Présentation des sujets en CAB pour passage en production Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Savoir Faire : Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste Profil technico fonctionnel SQL Server JIRA/XRAY Environnement Microsoft azure Databricks Utilisation de l'IA dans les tests (Génie Code) Outils de reporting Power BI, Microstratégy Savoir Etre : Collaboratif Entraide Force de proposition Implication/Engagement Amélioration Continue Communication fluide Qualité organisationnelle
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Freelance
CDI
CDD

Offre d'emploi
Data Scientist

R&S TELECOM
Publiée le
Agent IA
Google Cloud Platform (GCP)
Python

6 mois
Corenc, Auvergne-Rhône-Alpes
Contexte de la mission : Pour notre client dans le domaine bancaire, nous recherchons un profil de Data Scientist Tâches à réaliser : Piloter et réaliser des projets de data sciences / intelligence artificielle directement avec les métiers, sous supervision du tech lead data scientist (data préparation, modélisation, data visualisation, normes gestion de projet) Coacher des étudiants dans la réalisation de POC Réaliser des actions d’acculturation et d’animation Accompagner les métiers à la réalisation de prompt, déploiement de LLM, agents/assistants Participer à la mise en place de l’environnement technique (sous GCP notamment) et des méthodes de gestion de projet Réaliser la Maintenance en Condition Opérationnelle des cas d’usages DS/IA industrialisés Collaborer et participer activement à la vie du service et du département et à l’amélioration continue de son fonctionnement Les actions réalisées s’inscrivent dans un cadre règlementaire et normatif, tant d’un point de vue sécurité des systèmes d’information que conformité, RGPD, IA Act et éthique La mission implique également une compréhension et une traduction fonctionnelle des activités et processus bancaires, une connaissance générale des produits et services bancaires serait donc un plus Compétences recherchées : Obligatoires : · Python · SQL · Capacité à animer des ateliers, à fédérer autour des sujets Data/IA, à vulgariser pour des publics néophytes Optionnelles : · Expérience sur GCP · Expérience en chef de projet Expérience nécessaire : Minimum 5 années d’expérience en data science (ML, DL, LLM) (profil ITS : Hors grille) Langues : Français Date de démarrage : ASAP Localisation : Locaux du client situés à Corenc (Grenoble) Possibilité d’interventions hors site Client : OUI (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : OUI (Environ une fois par mois) Autre matériel requis : NON
CDI
Freelance

Offre d'emploi
Data Ingénieur

Les Filles et les Garçons de la Tech
Publiée le
AWS Cloud
IA
Kubernetes

6 mois
40k-51k €
450-600 €
Paris, France
Le ou la Data Ingénieur·e IA conçoit, met en place et opère les pipelines de données qui alimentent les cas d’usage d’intelligence artificielle (machine learning, LLM, analytics avancée). Le poste vise à garantir la disponibilité, la qualité, la traçabilité et la performance des données de bout en bout, depuis les sources (SI, APIs, fichiers, logs) jusqu’aux environnements d’entraînement et de production. En lien étroit avec les équipes Data Science, Produit, DevOps et Sécurité, la personne contribue à industrialiser les flux et à fiabiliser l’écosystème data. Livrables Pipelines de données documentés et automatisés, avec contrôles de qualité (validation, déduplication, gestion des valeurs manquantes) et mécanismes de reprise sur incident. Jeux de données prêts pour l’IA (datasets d’entraînement/validation, tables de features, embeddings si nécessaire) et interfaces d’accès stables pour les équipes consommatrices. Tableaux de bord de supervision (fraîcheur, volumes, erreurs, coûts), documentation opérationnelle (runbooks) et contribution aux standards (naming, conventions, modèles) de la plateforme.
Freelance
CDI

Offre d'emploi
Expert TCE Data Center

AGH CONSULTING
Publiée le
Conception
Data Center

6 mois
40k-55k €
300-520 €
Île-de-France, France
Expert Technique Data Center Dans le cadre du déploiement de nouveaux Data Centers et de l’évolution des sites existants, la Direction Déploiement des Réseaux de Transport recherche un Expert Technique Data Center pluridisciplinaire. Le poste s’inscrit en remplacement d’un consultant en mission, avec un rôle clé de support technique transverse sur des sujets de construction, urbanisation et conception d’infrastructures critiques. MISSIONS • Définir les spécifications de déploiement des Data Centers (MO/CO/SO) et garantir leur respect • Assurer un rôle de référent technique transverse auprès des équipes projets • Challenger et valider les conceptions techniques (MOC) • Piloter ou suivre des projets techniques spécifiques • Participer aux appels d’offres fournisseurs et partenaires • Réaliser des audits techniques • Assurer l’animation et le contrôle des Dossiers d’Ouvrages Exécutés (DOE) • Assurer une veille technologique et réglementaire PÉRIMÈTRE TECHNIQUE Le poste s’inscrit dans un environnement TCE (Tous Corps d’État) avec une forte dimension construction et urbanisation : • Urbanisation des Data Centers • Construction : fondations, gros œuvre, aménagement des salles • Gestion des salles techniques • CFO / CFA • CVC / HVAC • Systèmes de sécurité : contrôle d’accès, anti-intrusion
Freelance
CDI

Offre d'emploi
Data engineer

Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Modélisation

6 mois
40k-64k €
550-800 €
Luxembourg
Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Freelance
CDI

Offre d'emploi
 Data Scientist – IA (F/H)

K-Lagan
Publiée le
Big Data
Data science
IA

1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet en Data & IA donnait un vrai sens à votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets innovants où la Data et l’Intelligence Artificielle sont au cœur de la transformation des entreprises. Aujourd’hui, nous recherchons un·e Data Scientist – IA (F/H) pour rejoindre l’un de nos clients dans un environnement stimulant et orienté innovation. 🔍 Contexte Vous interviendrez sur des projets à forte valeur ajoutée, visant à exploiter la donnée pour améliorer la prise de décision, automatiser des processus et développer des modèles prédictifs . Vous évoluerez au sein d’équipes pluridisciplinaires dans un environnement agile. 🎯 Missions Concevoir, développer et déployer des modèles de Machine Learning / IA Analyser et exploiter des volumes de données complexes Participer à la définition des cas d’usage Data & IA Mettre en production les modèles et suivre leur performance Collaborer avec les équipes Data Engineering, BI et métiers Assurer la qualité, la robustesse et la fiabilité des modèles Contribuer à l’ amélioration continue des solutions IA
1049 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous