Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 334 résultats.
Freelance

Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.

WorldWide People
Publiée le
PySpark
Python

12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.
Freelance

Mission freelance
Business Analyst Data / PO Senior

STHREE SAS pour HUXLEY
Publiée le

12 mois
75001, France
📍 Paris * 🧑‍💻 3j TT / 1j présentiel * 🚀 Début : 01/04/2026 * 🔁 Durée : 12 mois (renouvelable jusqu'à 3 ans) 🗂 Assistance technique * FR courant * EN pro - secteur : BANQUE 📊 Domaines : paiements, clients, transactions, finance, Datalake 🎯 Contexte Une personne de l'équipe arrive au terme de ses 3 ans de mission. Départ prévu en septembre, avec passation complète. Environnement à taille humaine, organisation mature, sujets data stimulants et visibilité transverse. Vous intervenez sur un périmètre riche, au cœur de la chaîne de valeur data. 🧠 Votre rôle (Business Analyst Data Senior / PO) Vous interviendrez de bout en bout : Analyse & cadrage Recueil et analyse des besoins métiers Proposition de simplifications / cibles process Rédaction des spécifications (US, AC, règles de gestion) Build & delivery Préparation du backlog et suivi des squads Dev/Ops Validation des développements Contribution aux tests, UAT, déploiement et post-prod Run / BAU Support fonctionnel (incidents & petites évolutions) Suivi de la qualité des données & investigations SQL 🔶 Mission principale : BA Data transverse Focus domaines : paiements, clients, transactions, finance , avec un fort volet spécifications + accompagnement build/BAU et une expertise migration / validation des données . 📦 Livrables Specs fonctionnelles & règles de gestion US / AC, data dictionary, schémas de modélisation Plans de tests & support UAT Support BAU ➕ Livrables additionnels (migration & qualité de données) Stratégie de migration, mapping, règles de transformation Plans de validation (comptages, réconciliations, seuils) Rapports de qualité & readiness cutover ✅ Profil recherché BA Data Senior : autonome, transverse, orienté valeur métier Excellente maîtrise : modélisation , rédaction de specs , tests Très bonne compréhension des environnements Datalake SQL confirmé pour investigations & contrôles fonctionnels Contexte bancaire apprécié (paiements / clients / transactions / finance) Expérience concrète en migration de données : mapping, transformation, qualité, réconciliations, gestion des écarts
Freelance

Mission freelance
Préparation des données industrielles (BOM, gammes, postes, articles) en vue de la bascule vers SAP

Mon Consultant Indépendant
Publiée le
Data management
Gestion de projet

6 mois
500-540 €
Paris, France
Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Freelance

Mission freelance
Lead Data Architecte Sénior

Nicholson SAS
Publiée le
CRM
Google Cloud Platform (GCP)
SQL

9 mois
400 €
Massy, Île-de-France
Lead Data Architect Senior – Supply Chain Analytics Lieu : Massy (91) – Hybride (2 jours sur site / semaine) Durée : ASAP jusqu’au 31/12/2026 TJM : 400 € 🎯 Le Rôle : Pivot Stratégique & Technique Au cœur de l’ Analytics Factory , véritable moteur de la transformation numérique du groupe, vous rejoignez l’équipe Data Translation Supply Chain . Votre mission est cruciale : être le trait d’union entre les enjeux métier de la Supply Chain (prévisions de ventes, optimisation des flux, planification entrepôts) et l'excellence technique des équipes Data (Scientists, Engineers, Gouvernance). Vous ne vous contentez pas d'analyser ; vous guidez les décisions stratégiques du nouveau Directeur de la Supply Chain. Vos principales responsabilités : Data Translation : Traduire les problématiques business complexes en solutions analytiques concrètes. Analyse & Modélisation : Piloter des analyses approfondies nécessitant une forte agilité et un esprit critique pour challenger les demandes métier. Restitution de haut vol : Assurer la communication et la vulgarisation des résultats auprès du Top Management. Amélioration Continue : Évaluer la qualité du code, optimiser les solutions existantes et garantir le respect des standards élevés du groupe. 🛠 Environnement Technique & Expertises Nous recherchons un profil capable de manipuler de larges volumétries de données avec une aisance absolue. Maîtrise incontournable : SQL (BigQuery), outils de Datavisualisation (Tableau, Google Looker Studio). Les "Plus" : Maîtrise de Python et GitLab . Data Science : Solide compréhension des principes de modélisation pour interagir efficacement avec les Data Scientists. Infrastructure : Expertise en Architecture de données et environnement Google Cloud Platform (GCP) . 🎓 Profil recherché Formation : Diplôme d’Ingénieur ou équivalent Bac+5 de haut niveau en Maths/Stats). Expérience : +7 ans d’expérience en Data, dont au moins 2 ans dans le secteur du Retail (ou conseil spécialisé) et 2 ans spécifiquement sur des sujets Supply Chain . Soft Skills : * Posture "Top Management" : excellente communication orale et écrite. Capacité de vulgarisation de sujets complexes. Rigueur, autonomie et proactivité. 💻 Cadre de travail & Moyens Équipement : Laptop professionnel haut de gamme (i7/Ryzen 7, 16 Go RAM, SSD) fourni. IA Générative : Accès aux solutions d'IA sécurisées internes du groupe (usage d'IA externes proscrit pour garantir la sécurité des données). Culture : Intégration dans une équipe agile, mature et experte, favorisant l'apprentissage continu.
Freelance

Mission freelance
Responsible AI Lead

ESENCA
Publiée le
Agent IA
Data quality
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la Responsible AI Lead pilote la gouvernance de l’intelligence artificielle et garantit la conformité, la sécurité, l’éthique et la maîtrise des risques des systèmes IA. Encadrement Management d’une équipe spécialisée pouvant inclure : Analyste Responsible AI & Traçabilité Responsable Contrôles & Tests IA (QA IA) AI Policy Manager Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Fonctions conformité (DPO, RSSI, juridique) Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, agents, etc.) Cabinets spécialisés (audit, conformité, IA) Mission Le/la Responsible AI Lead est garant(e) de la gouvernance globale des systèmes d’intelligence artificielle. Il/elle s’assure que les cas d’usage respectent les exigences réglementaires et internes (notamment en matière de conformité, d’éthique, de sécurité et de gestion des risques), tout au long de leur cycle de vie, du cadrage au run. Responsabilités principales 1. Gouvernance et conformité IA Définir et déployer la politique d’usage de l’IA Structurer le cadre de gouvernance (standards, processus, rôles) Classifier les cas d’usage selon leur niveau de risque Définir les exigences de documentation, traçabilité et versioning 2. Gestion des risques IA Conduire les analyses de risques par cas d’usage Classifier les systèmes selon leur criticité (faible, limité, élevé) Définir les contrôles adaptés (tests, supervision, documentation) Coordonner les validations avec les fonctions conformité (juridique, DPO, sécurité) 3. Contrôles et tests IA Définir les stratégies de tests non fonctionnels : robustesse biais sécurité hallucinations dérive des modèles Fixer les critères de validation (go / no-go) Superviser les campagnes de tests IA 4. Documentation et audit Piloter la documentation réglementaire des systèmes IA Maintenir un registre des cas d’usage IA Organiser les audits internes et externes Suivre les plans de remédiation 5. Supervision en production Définir les exigences de monitoring (logs, incidents, dérives) Suivre la performance et la fiabilité des systèmes IA Mettre en place des revues périodiques Piloter la gestion des incidents IA 6. Pilotage des coûts (FinOps IA) Définir les règles de consommation (quotas, garde-fous) Suivre les coûts et l’efficience des solutions IA Recommander des optimisations 7. Diffusion des bonnes pratiques Déployer la charte éthique IA Sensibiliser et former les équipes aux enjeux de l’IA responsable Accompagner les équipes projets dans l’application des standards Promouvoir une culture de l’IA responsable à l’échelle de l’organisation
Freelance

Mission freelance
Chef de projet Vision client 360 - IA & Data

Clémence Consulting
Publiée le
Data management
IA
SQL

9 mois
Paris, France
Le scope fonctionnel du projet "360 Client" est bien cadré et consiste à mettre en place une "plateforme" qui consommera des données issues de systèmes métiers, et utilisera des services IA tels que la qualification des demandes et l'aide à la réponse. Le Chef de projet que nous recherchons aura plusieurs rôles : piloter le projet et coordonner les directions / services impliqués réaliser les ateliers et produire les livrables tels que spécifications et US, cahiers de tests et recette, accompagner les métiers dans l'appropriation accompagner le passage du projet vers les équipes RUN Les dimensions que le Chef de projet aura en charge sont : le projet d'intégration de la plateforme, qui est cadré et où il faut aller dans les détails le chantier data qui doit mettre à disposition les données qui seront consommées par la pf. Un CRM, un MDM Client et des API existent, mais il faudra cadrer, spécifier, piloter etc le reste à faire sur le chantier DATA et pour les futurs services IA
Freelance

Mission freelance
Data Owner Merchandising

Zenith Rh
Publiée le

12 mois
Nord, France
Nous recherchons pour notre client, un(e) Data Owner Merchandising, pour une mission en freelance au sein d’un grand groupe leader dans son domaine. Dans le cadre d'une transformation, vous interviendrez pour structurer et garantir l'intégrité du patrimoine de données. Votre rôle est central : vous êtes le garant de la définition, de la gouvernance et de la qualité des données liées aux services merchandising. En véritable chef d'orchestre, vous définissez les règles, les standards et les processus tout en identifiant les responsabilités de chaque acteur. Vous jouez un rôle d'arbitre pour les décisions business et priorisez les chantiers d'amélioration en veillant à ce que les équipes métiers assurent les corrections nécessaires. Votre mission est d'assurer un alignement parfait entre les besoins opérationnels de terrain et les exigences des domaines consommateurs de données.
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Freelance

Mission freelance
Data Manager

RED Commerce - The Global SAP Solutions Provider
Publiée le
Data management

6 mois
Lyon, Auvergne-Rhône-Alpes
*** Data Manager – Hybride – Lyon *** RED Global est à la recherche d’un Data Manager pour venir rejoindre les équipes de l’un de nos clients dans le cadre de leurs projets en cours. Profil recherché: 8-10 ans d’expérience en tant que Responsable Data/ Data Manager Capacité à manager des équipes et différentes plateformes. Management Opérationnel Excellentes compétences de communication Détails de la mission: Démarrage : ASAP Localisation : Hybride – Lyon – 2/3 jours sur site par semaine Durée : contrat de 6 mois puis passage en CDI Langues : Français et Anglais obligatoire
CDI

Offre d'emploi
Data Scientist H/F

FED SAS
Publiée le

42k-52k €
Apprieu, Auvergne-Rhône-Alpes
Fed IT, cabinet de recrutement dédié aux fonctions informatiques, recrute pour son client, cabinet de maîtrise d'œuvre et économie de la construction, un(e) Data Scientist H/F, pour accompagner sa croissance. Au sein d'une société de 60 personnes, vous arrivez en création de poste et rejoignez la "transformation digitale" (data et infrastructure). Rattaché(e) au directeur de l'équipe, vous : -Intervenez sur l'ensemble de la data du cabinet (maquettes 3D, mémoires techniques, cycle de vie des produits...), -Structurez et exploitez les données issues des différents métiers de l'entreprise, -Recueillez les besoins des utilisateurs et les traduisez en spécifications techniques, -Réalisez les extractions, transformations et intégrations des données (SQL, et via des ETL et API), -Mettez à disposition les KPI et autres outils d'aide à la décision (Power BI), -Développez des outils complémentaires via Python, -Proposez des méthodes d'automatisation de mise à disposition, stockage et échange de données, -Êtes partie prenante dans le choix des outils data et maintenez l'existant, Rémunération : 42 à 50 K€ bruts/an (fixe selon expérience) + 1 à 3 K€/an (intéressement possible) + 100 € nets/mois (forfait restauration) + forfait annuel lié à la mobilité douce + 1 jour de télétravail/semaine + 6 jours de RTT/an.
CDI

Offre d'emploi
Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
Microsoft Excel
SQL

35k-45k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Alternance
CDI

Offre d'emploi
Alternance - Data Analyst Appui Innovation F/H

█ █ █ █ █ █ █
Publiée le
autonomie
Microsoft Excel
Python

9 720-21 612 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte Data

PROPULSE IT
Publiée le

24 mois
350-700 €
Paris, France
PROPULSE IT recherche un Architecte DATA. Pour soutenir la sélection et la mise en œuvre d'un nouveau système CRM et d'une plateforme d'automatisation marketing, le client recherche un expert capable de préparer l'avenir et de développer davantage le modèle de données client et consommateur, et d'établir un plan d'intégration et une feuille de route. - Conception de bases de données Traduire le modèle consommateur canonique existant en une base de données concrète. Définir et documenter les entités, attributs et relations dans un dictionnaire de données. Assurer de la qualité des données et de la cohérence sémantique. Intégration et cartographie fonctionnelle Cartographier fonctionnellement les données des consommateurs à travers les différents systèmes B2C. Développer des cartographies et des transformations à partir des CRM, e-commerce, POS (physique), fidélisation et automatisation marketing vers la base de données consommateurs. Définir les approches de transformation et de standardisation. - Architecture et feuille de route Finaliser l'architecture de l'application autour des données des consommateurs : systèmes, processus et dépendances. Ajuster le modèle de données lorsque cela est nécessaire, en tenant compte des limites des systèmes existants. Élaborer une feuille de route pour relier les différents systèmes par phases.
CDI

Offre d'emploi
Data Scientist F/H - Finance, trésorerie (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
SQL

Le Relecq-Kerhuon, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Cloud Automation & Data Engineering

ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance

1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
3334 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous