Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 013 résultats.
Freelance
CDI

Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)

STORM GROUP
Publiée le
AI
Machine Learning
Python

3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

40k-49k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
Freelance

Mission freelance
Tech Lead Customer Data Cloud

EBMC
Publiée le
SAP

6 mois
300-600 €
France
Dans le cadre d’un projet digital dans le secteur pharmaceutique, nous recherchons un Tech Lead spécialisé SAP Commerce Cloud afin d’accompagner une équipe projet sur des sujets de développement et d’évolution de la plateforme e-commerce. Le consultant interviendra en tant que référent technique sur le périmètre Commerce Cloud, avec pour mission de structurer les travaux, sécuriser les choix techniques et garantir la qualité des livrables. Il participera également à l’encadrement et à la montée en compétence de consultants, tout en contribuant activement aux activités de conception et de delivery.
Freelance
CDI

Offre d'emploi
Analyste Observabilité & Expérience Digitale (DEX)

OBJECTWARE
Publiée le
Data visualisation
UX design
Workplace

1 an
40k-45k €
430-620 €
Montpellier, Occitanie
Vous rejoignez l’équipe en charge de la performance du poste de travail et de l’amélioration continue de l’expérience utilisateur. Votre rôle consiste à exploiter les données de télémétrie Windows 11 issues d’une plateforme d’observabilité (Nexthink, Lakeside Systrack ou équivalent) afin de fournir une vision claire, actionnable et orientée utilisateur de la santé du parc informatique. Vos missions principales : Analyse & Observabilité Collecter, analyser et interpréter les données de performance des postes Windows 11. Identifier les dégradations, signaux faibles et anomalies avant qu’elles n’impactent les utilisateurs. Réaliser des investigations techniques et des analyses RCA pour comprendre l’origine des problèmes. Pilotage de la qualité d’expérience (DEX) Élaborer des indicateurs de qualité d’expérience (DEX Score, performance, stabilité, connectivité…). Définir, suivre et optimiser les KPIs clés (boot time, crash apps, latence réseau, ressources système…). Construire des vues dédiées aux équipes support, run, métiers et direction. Tableaux de bord & Data Visualisation Concevoir et maintenir des tableaux de bord Power BI (ou équivalents). Mettre en place des rapports automatisés (hebdomadaires, mensuels, flash analyse). Fournir des recommandations basées sur la donnée (« data-driven insights »). Contribution aux opérations IT Suivre l’impact des mises à jour Windows / drivers / applications. Accompagner le support N1/N2/N3 avec des analyses temps réel. Contribuer à la réduction du MTTR et à l’amélioration continue du service.
Freelance

Mission freelance
Data Engineer AI / LLM Snowflake (H/F) – Expérimenté H/F

Comet
Publiée le
Agent IA
Python
RAG

12 mois
400-550 €
Île-de-France, France
Contexte Au sein de la division Global Beauty Tech, l’équipe Data & Analytics Corporate IT Global de L'Oréal pilote des plateformes data stratégiques à l’échelle mondiale (RH, Finance, Campus). L’environnement technologique repose sur : Snowflake (plateforme analytique centrale) Google Cloud Platform (GCP) (BigQuery, Cloud Composer, GCS) Dans le cadre de son ambition 2026, l’équipe accélère fortement sur l’ IA générative et agentique , notamment via Snowflake Cortex et l’écosystème Snowflake Intelligence. 👉 Objectif : passer de PoC prometteurs à des solutions industrialisées, robustes et scalables . Votre mission Vous interviendrez sur un projet stratégique : “Talk to My HR Data” – une plateforme permettant aux métiers RH d’interroger leurs données en langage naturel via des agents IA. Vos responsabilités : 🏗️ Conception du framework IA Définir une architecture agentique sur Snowflake (LLM, orchestration, mémoire) Concevoir des patterns réutilisables (agents, tools, prompts) Formaliser les bonnes pratiques et standards 🤖 Développement d’agents IA Développer des agents Cortex pour des cas RH complexes Implémenter des solutions RAG et outils métiers (SQL sémantique, agrégations) Optimiser la fiabilité (ReAct, Chain-of-Thought) 🔌 Mise en place de serveurs MCP Concevoir des serveurs Model Context Protocol Exposer les données Snowflake aux LLMs Garantir sécurité & conformité (RGPD, données RH) 💬 Développement d’interfaces Créer des apps conversationnelles avec Streamlit in Snowflake Intégrer les agents dans des dashboards analytiques Améliorer l’expérience utilisateur (historique, feedback, erreurs) 📊 Gouvernance & performance IA Monitorer les usages LLM (coûts, latence, qualité) Optimiser les performances et coûts GenAI Mesurer le ROI des cas d’usage
Freelance

Mission freelance
Data & Analytics Engineer (SQL / DBT)

Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
CDI

Offre d'emploi
ALTERNANCE - Assistant(e) Data Référentiel (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Microsoft Excel
SharePoint

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
CDP Infrastructure (NF)

SKILL EXPERT
Publiée le
Master Data Management (MDM)

1 an
400 €
Paris, France
Descriptif de la mission : En tant que cheffe de projet IT, piloter plusieurs projets techniques et applicatifs, depuis la phase d’étude jusqu’au déploiement en production, dans un contexte ministériel complexe et multisite. La mission couvre la gestion complète du cycle de vie projet, l’animation des parties prenantes, et le pilotage des équipes techniques internes et externes Contexte et expression de besoin client : - Gestion de projet des postes iMac OS de la DICOM avec l'infrastructure MLDM , gestion des patch de sécurité et de l'antivirus des poste iMAC OS. - Gestion de la migration de l'outil de chiffrement Cryhod vers Bitlocker - Mise en place de l'outil de sécurisation des poste de travail WDAC sur les postes Windows 11 - Mise en place des mot de passe BIOS sur tous les postes du ministère de la justice - Compte rendu d'activité Hebdo et recap mensuel
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Freelance

Mission freelance
Senior Data Ops Engineer

CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks

1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Freelance

Mission freelance
Développeur Backend Data – Elasticsearch

Codezys
Publiée le
Elasticsearch
ELK
Grafana

6 mois
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service "systèmes connectés" pilote un portefeuille de projets liés à plusieurs applications, dont certaines en phase de BUILD et d'autres en phase de RUN . Dans ce cadre, nous recherchons un profil expérimenté pour assurer la responsabilité technique d’un projet existant. Ce projet, récemment mis en production, vise à fournir des indicateurs via une interface Grafana, permettant un suivi précis des modules de télérelève et de radio-relève. Il comprend notamment une couche d'ingestion qui permet d'enregistrer les données dans une base ElasticSearch, avec un format adapté. L'ingestion est pilotée par du code Java. Les indicateurs ainsi produits permettent au métier de suivre environ 1 million de modules clients, avec des index quotidiens sur une période de 3 ans. La mission principale consiste à : Maintenir l’existant en assurant la stabilité et la performance du système Analyser et résoudre les incidents ainsi que répondre aux questions remontées par le métier, en expliquant et en corrigeant les résultats affichés Ajouter de nouveaux objets en fonction des besoins métiers Le projet "Supervision Télérelève" s’appuie sur un socle technique composé de Java, ELK (ElasticSearch, Logstash, Kibana) et Grafana, visant à fournir une solution de reporting performante pour les experts et les collectivités. Bien que le socle technique soit en place, il nécessite un maintien ainsi que le développement de nouveaux objets. Une collaboration avec d’autres équipes sera nécessaire pour travailler sur des questions d’authentification, en intégrant la solution dans d’autres projets. Par ailleurs, une migration vers Databricks peut être envisagée à moyen terme, ce qui impliquera une adaptation technique future. Le candidat retenu occupera un rôle de TechLead / Développeur : il devra analyser l’existant, assurer le débogage, suivre le backlog, et échanger avec le métier, le Product Owner (PO) et, éventuellement, avec les architectes. En tant que seul acteur technique sur ce projet, il doit faire preuve d'une grande autonomie et d’une capacité à gérer l’ensemble des sujets techniques. Profil recherché : Expérience confirmée en gestion de projets techniques similaires Maîtrise de Java, ELK Stack et Grafana Capacité à analyser, diagnostiquer et corriger les incidents Autonomie et initiative dans la gestion de projet Bonnes qualités de communication pour échanger avec différentes équipes techniques et métiers
Freelance
CDI

Offre d'emploi
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le

1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
CDI
Freelance

Offre d'emploi
Tech Lead Data xDI/Python/Snowflake/GCP & CI/CD

OBJECTWARE
Publiée le
CI/CD
Google Cloud Platform (GCP)
Microsoft SQL Server

3 ans
40k-85k €
400-650 €
Île-de-France, France
Responsabilités principales : Pilotage Technique : - Définir et faire respecter les bonnes pratiques de développements, de versioning et d'industrialisation des flux data - Réaliser les revues de code, assurer la cohérence et la robustesse technique des traitements - Participer à la conception des architectures cibles en lien avec les architectes data et les équipes DSI. - Contribuer à l'amélioration continue des performances et de la stabilité des pipelines Conception et industrialisation : - Concevoir, développer et maintenir des pipelines de collecte, de transformation et de diffusion des données (ETL/ELT) - Mettre en œuvre les solutions d'orchestration et d'automatisation - Participer à la migration des flux SAS vers des solutions modernes (ex : Snowflake) - Veiller à la documentation, à la supervision et au monitoring des traitements Encadrement et accompagnement : - Accompagner techniquement les data engineers dans leurs développements et leur montée en compétence - Promouvoir les bonnes pratiques DataOps (CI/CD, test, observabilité, monitoring) - Faciliter les échanges entre les équipes data, architecture, sécurité et métier Gouvernance et qualité : - Contribuer à la mise en place des standards de qualité, de traçabilité et de sécurité des données - Collaborer avec le Data Quality Officer sur les sujets de contrôle d'alerting - Participer à la mise en place de mécanismes de data lineage et de gestion des metadonnées Expérience : Expérience sur des architectures cloud data (idéalement GCP) Expérience confirmée dans l'industrialisation et la mise en production des pipelines data Langages et outils : - Obligatoires : Python, SQL, Spring Batch - Data platform : GCP, Snowflake (bonne connaissance apprécié) - ETL/ELT : XDI - CI/CD & Infra : Gitlab, Docker, Terraform, Kubernetes Architectures : - Architecture Data Moderne (Data Lake/House, Data Mesh, ELT Cloud etc) - Performance et optimisation des flux - Sécurité, gouvernance et qualité des données - Supervision et observabilité
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
CDI

Offre d'emploi
Product Owner Pricing Data & Analytics F/H

█ █ █ █ █ █ █
Publiée le
JIRA
Scrum

Auvers-sur-Oise, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Expert Board EPM – Paramétrage et Maintenance

NEXORIS
Publiée le
IAM
JIRA
Master Data Management (MDM)

6 mois
500 €
Île-de-France, France
Missions Notre client recherche un Consultant Expert Board EPM – Paramétrage et Maintenance (H/F) dans le cadre d'une longue mission. La mission consiste à renforcer l’équipe MOE en charge de l’application GPS, solution EPM basée sur la plateforme SaaS Board, afin de sécuriser les échéances de déploiement, la maintenance des lots existants et la migration vers la version Board 15. - Assistance à la MOE sur le projet GPS et ses évolutions. - Paramétrage et maintenance de la solution Board. - Gestion et administration des environnements SaaS (développement à production). - Supervision de la production et suivi des traitements. - Traitement des incidents et mise à jour des outils de ticketing (JIRA, Plume). - Participation aux études d’impact et au chiffrage des évolutions. - Réalisation des tests, notamment de non-régression. - Contribution à la migration vers la version Board 15. - Mise en œuvre des reportings spécifiques (LPI et BSCC). - Participation à la réversibilité vers le centre de services. - Collaboration avec les équipes sécurité, IAM et RPA. Ces activités s’inscrivent dans le cadre du pilotage budgétaire et du contrôle de gestion du Groupe. Livrables : - Comptes rendus de réunions et documentation projet. - Processus de gestion des environnements. - Journaux de mise à jour des environnements. - Tableaux de bord de supervision et rapports de production. - Correctifs d’incidents et mises à jour de la base de connaissances. - Études d’impact et chiffrages. - Scénarios et rapports de tests de non-régression (migration Board 15). - Documentation de réversibilité
1013 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous