Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 7 420 résultats.
Freelance
CDI
CDD

Offre d'emploi
DevOps & SRE Engineer (H/F)

RIDCHA DATA
Publiée le
Agile Scrum
Ansible
AWS Cloud

1 an
40k-51k €
370-440 €
Paris, France
Contexte de la mission Dans le cadre d’une stratégie de transformation vers le cloud public , une grande organisation internationale poursuit la modernisation de ses infrastructures et de ses plateformes de développement. L’objectif est de faire du cloud public la principale plateforme d’hébergement des applications , tout en renforçant les pratiques DevOps, la fiabilité des systèmes et l’automatisation des processus. Dans ce contexte, l’équipe Cloud / DevOps Platform souhaite renforcer son expertise afin d’améliorer : les plateformes CI/CD la Developer Experience la sécurité et la conformité des environnements Missions principales En tant que DevOps & SRE Engineer , vous interviendrez sur les plateformes DevOps et le backbone du Software Development Life Cycle (SDLC) . Vous évoluerez dans un environnement agile (SCRUM / SAFe) favorisant la collaboration, la transparence et l’amélioration continue. Automatisation et infrastructure Concevoir, développer et maintenir des automatisations d’infrastructure via Terraform et Ansible . Développer des intégrations et automatisations permettant d’améliorer la fiabilité et la performance des plateformes . Fiabilité et exploitation (SRE) Mettre en place et améliorer les processus d’automatisation et de gestion des incidents selon les principes Site Reliability Engineering (SRE) . Garantir la stabilité, la sécurité et la scalabilité des environnements. Evolution des plateformes Contribuer à l’évolution du backbone SDLC afin de répondre aux besoins métiers et aux exigences opérationnelles. Participer à l’amélioration des pratiques DevOps, sécurité et conformité . Collaboration et accompagnement Collaborer avec les équipes techniques, les équipes produit et les parties prenantes . Accompagner et mentorer les ingénieurs SRE et les équipes de développement . Environnement techniqueDevOps / CI-CD GitHub Enterprise Server (GHES) Pipelines CI/CD Pratiques DevSecOps Infrastructure as Code Terraform Ansible Cloud Microsoft Azure AWS Environnements hybrides et gestion de résidence des données Monitoring et exploitation Outils de monitoring et d’alerting Gestion des incidents Outils collaboratifs Jira Confluence Langages / scripting Bash PowerShell Méthodologie Agile : SCRUM / SAFe Culture DevOps et amélioration continue Approche SRE (Site Reliability Engineering)
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
CDI
Freelance

Offre d'emploi
Ingénieur DevOps Machine Learning

AIS
Publiée le
DevOps

1 mois
40k-45k €
225-450 €
Toulouse, Occitanie
- Concevoir et implémenter des algorithmes avancés (notamment Machine Learning) intégrés à un outil logiciel interne reposant sur une architecture Java - Développer des fonctionnalités back-end en Java dans un environnement client-serveur REST - Participer à l'évolution des composants serveur dans un contexte de systèmes distribués et de haute disponibilité - Optimiser les performances et la robustesse des traitements applicatifs - Concevoir des architectures logicielles simples, robustes et évolutives - Intervenir sur des environnements Linux, conteneurisés via Docker - Participer à l'intégration de composants s'appuyant sur des bases de données relationnelles et NoSQL (SQL, Cassandra, OpenSearch) - Participer aux phases d'intégration continue via GitLab CI/CD - Travailler en méthodologie Agile (Scrum) au sein d'équipes pluridisciplinaires - Rédiger la documentation technique en anglais ENVIRONNEMENT TECHNIQUE : Java, REST, Linux, Windows, Docker, SQL, Cassandra, OpenSearch, Bases relationnelles et NoSQL, CI/CD GitLab, Ansible, Terraform
Freelance
CDI

Offre d'emploi
QA Big Data

KLETA
Publiée le
Big Data
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Freelance
CDI
CDD

Offre d'emploi
Product Owner / Data Steward

OCTOGONE
Publiée le
Data governance
Data modelling
IA

6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Product Owner / Data Steward capable de jouer un rôle central dans la transformation Data & IA de l’entreprise. Profil recherché : Expérience solide en change management , transformation et accompagnement d’équipes Aisance dans l’ animation , la facilitation et la fédération de publics variés (contexte international) Capacité à structurer une vision , construire une roadmap et piloter le changement Sensibilité aux enjeux Data / IA (pas besoin d’expertise technique) Curiosité pour comprendre les modèles de données, référentiels et la sémantique Mission : Donner du sens à la démarche “Data & IA driven” Animer ateliers, communautés et groupes de travail Contribuer à l’acculturation Data/IA (sensibilisation, formations) Suivre l’adoption, valoriser les succès et ajuster les pratiques Faire le lien entre les équipes data, IA, IT et gouvernance Compétences Connaissance des data platforms (stockage, transformation, visualisation) Compétences en Data Governance et Data Modeling Excellentes compétences relationnelles, organisationnelles et d’animation
Freelance

Mission freelance
TOULOUSE - Expert Réseau & Sécurité -Fortinet / Automatisation

CAT-AMANIA
Publiée le
Ansible
F5
Fortinet

3 ans
400-440 €
Toulouse, Occitanie
Description du poste Dans le cadre du renforcement des équipes infrastructures, tu interviens en tant qu’ expert Fortinet au sein d’environnements datacenter critiques . L’équipe est en charge de la gestion des infrastructures de sécurité (hors gestion des politiques de sécurité), avec un fort enjeu de disponibilité et d’automatisation . Tes missions principales : Administrer et maintenir les infrastructures Fortinet en environnement build & run Participer au design et à l’évolution des architectures de sécurité Mettre en place et améliorer les processus d’ automatisation des infrastructures Contribuer au maintien en condition opérationnelle des plateformes de sécurité Assurer le support N3 sur les incidents complexes Participer à l’intégration des solutions de sécurité dans l’ écosystème réseau global Intervenir sur des environnements de production critiques avec des exigences fortes de disponibilité et de performance Participer aux astreintes, permanences et opérations en heures non ouvrées
CDI

Offre d'emploi
PARIS - Senior Manager Data F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Product Owner - Transaction Regulatory Reporting

NEXORIS
Publiée le
Data quality

1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
CDI

Offre d'emploi
Tech Lead Full-Stack / Data & Cloud (F/H)

CELAD
Publiée le

45k-51k €
Toulouse, Occitanie
Tech Lead Full-Stack / Data & Cloud (F/H) A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Toulouse Vous aimez autant coder que prendre de la hauteur sur l’architecture et la qualité logicielle ? Vous êtes à l’aise pour accompagner une équipe technique tout en mettant en place des stratégies de tests solides et durables ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e un.e Tech Lead Full-Stack pour intervenir chez un de nos clients, dans le secteur développement applicatif, data et cloud. Contexte : Vous rejoignez une équipe de développement qui conçoit et fait évoluer des applications à forte composante data , dans un environnement technologique moderne combinant Python, React et AWS . Votre rôle sera central : porter la vision technique , accompagner les développeurs et veiller à la qualité globale des livrables , notamment à travers la mise en place de stratégies de tests efficaces . L’objectif : construire des solutions robustes, performantes et maintenables dans le temps . Voici un aperçu détaillé de vos missions : Définir et porter la vision technique du produit Encadrer techniquement l’équipe de développement (code review, bonnes pratiques, pair programming) Participer activement au développement full-stack (Python / React) Contribuer aux choix d’ architecture applicative et data Optimiser les performances côté back-end et base de données Concevoir et faire évoluer les architectures cloud sur AWS Définir et structurer une stratégie de tests complète (tests unitaires, intégration, automatisation…) Mettre en place des pratiques favorisant la qualité et la fiabilité du code Participer aux choix technologiques et à l’évolution de la roadmap technique
CDI
Freelance

Offre d'emploi
Lead Data Engineer Dataiku & Python

OBJECTWARE
Publiée le
Dataiku
Python

3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes
Freelance

Mission freelance
Machine Learning Engineer – IA & MLOps

ESENCA
Publiée le
Github
LangChain
Python

1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.
Freelance
CDI
CDD

Offre d'emploi
Business Analyst SharePoint Online – Refonte Intranet (H/F)

RIDCHA DATA
Publiée le
Backlog management
Business Analyst
SharePoint

1 an
Île-de-France, France
Contexte de la mission Dans un contexte international et multi-entités , une grande organisation lance la refonte complète de son intranet basé sur SharePoint Online (Microsoft 365) . L’objectif est de mettre en place une plateforme moderne, unifiée et centrée utilisateur , permettant : un accès simplifié à l’information une meilleure collaboration entre les équipes une communication interne harmonisée à l’échelle mondiale Le Business Analyst jouera un rôle central d’interface entre les équipes métiers, les équipes IT et les parties prenantes internationales afin de garantir que la solution réponde aux besoins fonctionnels tout en respectant les standards du groupe. Objectifs du poste Recueillir et analyser les besoins métiers liés à la refonte de l’intranet. Contribuer à la définition d’une expérience utilisateur cohérente et homogène dans un environnement international. Traduire les besoins métiers en exigences fonctionnelles exploitables par les équipes techniques . Accompagner les métiers tout au long du projet : cadrage, conception, recette et déploiement. Missions principales Analyse & cadrage Identifier et cartographier les parties prenantes (métiers, communication, IT, régions/pays). Animer des ateliers de recueil des besoins (workshops, interviews, comités). Analyser les processus existants et identifier les axes d’amélioration. Formaliser les besoins sous forme de : use cases user stories parcours utilisateurs Conception fonctionnelle Rédiger les livrables fonctionnels : expressions de besoins spécifications fonctionnelles backlog produit user stories et critères d’acceptation Définir les modèles de données fonctionnels : métadonnées taxonomies navigation Contribuer à la définition de l’architecture fonctionnelle de l’intranet : sites hubs pages contenus Collaborer avec les UX/UI designers sur l’ergonomie et l’expérience utilisateur. Coordination & suivi Être l’interface entre les équipes métiers et techniques . Travailler avec les équipes techniques sur : SharePoint Online Power Platform SPFx si nécessaire Participer à : la priorisation du backlog la planification des évolutions Accompagner les phases de recette fonctionnelle : stratégie de tests cas de tests UAT Contribuer à la conduite du changement : supports utilisateurs communication interne formations. Contexte international Prendre en compte les enjeux multiculturels et multilingues . Assurer l’alignement entre besoins locaux et standards globaux . Interagir avec des équipes internationales en anglais . Livrables attendus Dossiers de cadrage fonctionnel Spécifications fonctionnelles User stories Parcours et personas utilisateurs Backlog priorisé Cahiers de recette Comptes rendus d’ateliers Environnement fonctionnel & technique Plateforme SharePoint Online (Microsoft 365) Outils associés Microsoft Teams Power Automate Power Apps Viva (Connections, Engage) Azure AD Méthodologie Agile / Scrum Compétences requises Compétences fonctionnelles Analyse des besoins métiers Modélisation de processus Conception de parcours utilisateurs Rédaction de spécifications fonctionnelles Animation d’ateliers métiers Compétences techniques (non développement) Très bonne connaissance de SharePoint Online architecture sites métadonnées gouvernance Bonne compréhension de l’écosystème Microsoft 365 Sensibilité UX et ergonomie digitale Compétences comportementales Excellentes capacités de communication Esprit de synthèse Capacité à structurer l’information Autonomie et rigueur Sens du service Capacité à évoluer dans un environnement international Langues Anglais professionnel courant indispensable Français requis
CDI

Offre d'emploi
Data Engineer Semarchy (H/F)

CELAD
Publiée le

36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
CDI

Offre d'emploi
Data Analyst- Part de Marché F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
Python

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Semarchy (H/F)

CELAD
Publiée le

1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

7420 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous