L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 841 résultats.
Mission freelance
Senior Data Product Manager – Group Data Platform / Data Mesh H/F
ADSearch
Publiée le
Architecture
Data Mesh
Production
3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre de l’accélération de sa transformation Data à l’échelle Groupe, notre client recherche un(e) Senior Data Product Manager pour piloter de manière stratégique et très opérationnelle la conception, la mise en œuvre et le déploiement de sa plateforme Data Self-Service Groupe , fondée sur les principes du Data Mesh . Il s’agit d’un rôle clé, orienté build et exécution , avec une forte responsabilité sur la livraison concrète , l’ industrialisation et l’ adoption à grande échelle de la plateforme au sein des différents domaines métiers. Le/la candidat(e) devra être capable de définir une vision produit claire tout en la traduisant en une plateforme robuste, scalable et prête pour la production , utilisée à l’échelle de l’entreprise. Mission principale Concevoir, construire, déployer et opérer la plateforme Data Mesh Groupe (appelée Group Data Platform – GDP ) comme un produit interne , en garantissant : sa livraison technique son adoption à l’échelle de l’entreprise son excellence opérationnelle son amélioration continue Responsabilités principales 1. Product Management orienté usage & amélioration continue Vos missions Recueillir et formaliser les besoins utilisateurs ainsi que les exigences plateforme Définir la vision produit , la proposition de valeur et la roadmap Mesurer l’usage de la plateforme et la valeur créée Améliorer en continu l’ expérience développeur et l’ expérience utilisateur Structurer les boucles de feedback et piloter le backlog d’amélioration Livrables attendus Vision produit et proposition de valeur de la plateforme KPIs de performance, d’usage et d’adoption Mécanismes de feedback utilisateurs et backlog d’amélioration continue Roadmap d’évolution de la plateforme 2. Delivery de la plateforme (responsabilité centrale) Vos missions Définir les capacités de la plateforme : data products pipelines de données gouvernance observabilité accès self-service Définir et faire appliquer les standards techniques et les patterns d’architecture Prendre des décisions techniques concrètes et valider les solutions de manière opérationnelle Garantir une plateforme industrialisée, réutilisable et scalable Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme 3. Architecture Cloud & Infrastructure Vos missions Coordonner la conception et l’exploitation de l’architecture cloud et hybride avec le Group Data Architect Coordonner avec la Group Data Delivery Team l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Garantir les exigences de sécurité , de conformité et de gouvernance Livrables attendus Blueprint d’architecture cloud (en collaboration avec le Group Data Architect) Cadre de sécurité et de gestion des accès Principes d’intégration hybride / on-premise 4. Pilotage de la delivery & exécution Vos missions Piloter l’ensemble du cycle de delivery de la plateforme Définir le backlog produit et le processus de priorisation Organiser les releases et les déploiements en production Suivre la performance, la fiabilité et la disponibilité de la plateforme Identifier et gérer les risques, incidents et sujets techniques critiques Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et processus de gestion de versions Tableaux de bord de suivi de delivery SLA / indicateurs de fiabilité et de performance de la plateforme 5. Déploiement & adoption dans les domaines métiers Vos missions Déployer la plateforme dans les différents domaines métiers Accompagner les équipes domaines dans la création de data products Mettre en œuvre le modèle opérationnel Data Mesh Structurer et accompagner l’onboarding des équipes Lever les freins opérationnels à l’adoption Livrables attendus Framework et processus d’onboarding des domaines Guidelines sur le cycle de vie des data products Playbooks d’accompagnement des équipes métiers / domaines KPIs d’adoption et d’usage Supports de formation et documentation d’onboarding 6. Documentation, standardisation & gouvernance Vos missions Documenter les capacités, standards et processus de la plateforme Garantir l’alignement avec la Federated Computational Data Governance du Groupe Structurer les bonnes pratiques de mise en œuvre Livrables attendus Référentiel de documentation de la plateforme Standards techniques et guidelines d’implémentation Framework de gouvernance et de conformité Playbooks de bonnes pratiques 7. Communication opérationnelle & reporting exécutif Vos missions Communiquer sur l’avancement, l’impact et la valeur de la plateforme Produire un reporting régulier à destination des instances de gouvernance et du management Aligner les parties prenantes métier, IT et Data Livrables attendus Executive Project Dashboard Tableaux de bord de performance de la plateforme Présentations pour les comités de pilotage / steering committees Suivi des décisions, risques et points bloquants 8. Promotion interne & évangélisation Vos missions Promouvoir la valeur de la plateforme à l’échelle de l’organisation Soutenir les initiatives d’adoption interne Fédérer une communauté autour de la plateforme Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations de la plateforme et portefeuille de cas d’usage
Offre d'emploi
Consultant BI / Data Analyst – ALM / Risque de liquidité
RIDCHA DATA
Publiée le
Data Lake
Data Warehouse
Microsoft Power BI
1 an
40k-45k €
340-480 €
Paris, France
🔹 Contexte : Dans le cadre du renforcement des capacités d’analyse et de pilotage des risques, un acteur majeur du secteur bancaire recherche un consultant BI / Data Analyst pour intervenir au sein de l’équipe ALM / Gestion de la Liquidité. Cette équipe est en charge de : La conformité réglementaire des ratios de liquidité L’anticipation des besoins de financement L’optimisation des ressources financières Le suivi des KPI liés à la liquidité La coordination avec les équipes métiers (Trésorerie, Risques, Finance…) 🔹 Détails de la mission : Démarrage : 15/04/2026 Durée : 12 mois Localisation : Paris (75) Télétravail : 2 jours / semaine 🔹 Missions principales : Conception de dashboards BI pour le suivi des ratios de liquidité Réalisation d’analyses ad-hoc Mise en place d’un portail BI centralisant les données de liquidité Gestion de la data visualisation avancée (drill-down, multi datasets) Optimisation des performances des interfaces (GUI) Participation à la modélisation des données Documentation technique et formation des utilisateurs 🔹 Environnement technique : Outils BI : Power BI / Tableau / Qlik Data : Data warehouse / Data lake Langages : Python / R (souhaité)
Mission freelance
Asset Management - Business Analyst - Market Data
NEXORIS
Publiée le
Market data
1 an
510-600 €
Paris, France
Notre client recherche un Business Analyst Market Data (H/F) dans le cadre d'une longue mission. Au sein de la direction Achats d’une société de gestion d’actifs, la mission consiste à accompagner les métiers sur les problématiques de market data, notamment dans l’analyse des besoins, la gestion des fournisseurs et l’optimisation des contrats et des solutions de données financières. - Apporter une expertise fonctionnelle et technique sur les besoins en market data des métiers (gestion, recherche, risques, private markets, etc.) - Analyser les solutions proposées par les fournisseurs de données financières - Préparer des synthèses et comptes rendus sur les solutions étudiées - Challenger les besoins des utilisateurs et vérifier la conformité des usages avec les contrats - Gérer les fournisseurs et participer aux négociations contractuelles - Identifier des pistes d’optimisation des coûts et anticiper les évolutions du marché - Piloter les contrats et le budget market data - Organiser et animer les comités market data avec la Direction générale Livrables - Comptes rendus d’analyse des solutions fournisseurs - Synthèses des besoins métiers - Suivi des contrats et reporting sur les dépenses market data
Mission freelance
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD
12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Mission freelance
Data analyste Python SQL Data briks 450 e par j
BI SOLUTIONS
Publiée le
Python
SQL
2 ans
400-450 €
Île-de-France, France
Data analyste Python SQL Data briks 450 e par j
Mission freelance
Expert Intégration / Informatica PowerCenter (H/F)
HOXTON PARTNERS
Publiée le
Informatica PowerCenter
12 mois
Paris, France
Dans le cadre d’un programme de services managés applicatifs (AMS) pour un client grand compte, nous recherchons un consultant senior spécialisé en intégration, disposant d’une solide expérience sur Informatica PowerCenter. Le client s’appuie sur de nombreux flux et traitements ETL autour de PowerCenter. Pour autant, il ne s’agit pas de recruter un profil exclusivement focalisé sur l’outil, mais bien un expert intégration capable de comprendre les enjeux globaux, d’apporter de la crédibilité sur PowerCenter, de dialoguer avec le client et de structurer une équipe autour du dispositif. La mission s’inscrit dans une logique de pilotage, de relation client et de montée en puissance d’une organisation. Le consultant devra intervenir à la fois sur les sujets d’intégration, sur la compréhension de l’existant, sur l’accompagnement du client et sur la mise en place d’une dynamique d’équipe adaptée au contexte AMS. Les responsabilités incluent notamment : Apporter une expertise sur les sujets d’intégration avec une bonne maîtrise d’Informatica PowerCenter Comprendre et challenger les flux ETL existants Échanger avec les interlocuteurs client pour expliquer les choix, les enjeux et les orientations possibles Participer à la structuration du dispositif dans un contexte AMS Contribuer à la mise en place et à la montée en charge des équipes Jouer un rôle de lead sur les sujets d’organisation, de coordination et de relation client Accompagner les réflexions autour de l’évolution de l’intégration et du delivery
Offre d'emploi
Data engineer Python
UCASE CONSULTING
Publiée le
Azure
CI/CD
Flask
1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous, Notre client recherche un Data Engineer Python afin de renforcer ses équipes data intervenant sur plusieurs projets de traitement et d’industrialisation de données dans un environnement cloud . L’objectif de la mission est de participer au développement et à l’évolution de solutions data utilisées par différentes applications métiers. Vous interviendrez au sein d’une équipe de Data Engineers travaillant en méthodologie agile , sur des projets mêlant développement de pipelines de données, services data et maintenance évolutive dans un environnement Python / Cloud . Vos missions Concevoir et développer des pipelines de traitement de données en Python Participer au développement de services ou APIs data Implémenter les User Stories et contribuer aux sprints agiles Réaliser les tests techniques et produire la documentation associée Participer à l’ industrialisation des développements (CI/CD, monitoring) Contribuer aux évolutions et à la maintenance des applications data existantes
Mission freelance
Directeur de Projet Data Banque (H/F)
Signe +
Publiée le
Big Data
12 mois
700 €
Paris, France
Dans le cadre de la transformation de ses systèmes d’information Finance et Risques, un acteur majeur du secteur bancaire recherche un Directeur de Programme IT expérimenté. Le programme porte sur des enjeux stratégiques liés à la data, aux réglementations financières et à la modernisation des plateformes SI. Le rôle est fortement exposé et implique des interactions régulières avec la Direction Financière ainsi que des instances de gouvernance de haut niveau. Missions principales Pilotage de programme Piloter un programme IT d’envergure (budget pluri-millions d’euros) dans un environnement bancaire exigeant Définir et suivre la feuille de route globale (planning, budget, risques, dépendances) Animer les comités de pilotage et assurer le reporting auprès des directions métiers et de la gouvernance Garantir l’atteinte des objectifs en termes de qualité, délais et coûts Pilotage SI et Data Assurer la coordination entre les équipes IT, les équipes data et les métiers Finance / Risques Apporter une vision stratégique sur les sujets Big Data (opportunités, contraintes, impacts SI) Superviser les trajectoires d’évolution des plateformes et des architectures data Coordination métier Finance / Risques Être l’interlocuteur privilégié de la MOA Finance et Risques Comprendre et challenger les besoins fonctionnels liés aux reportings réglementaires et aux dispositifs ALM Faciliter les échanges avec les équipes Contrôle de Gestion et Finance Gouvernance et gestion des parties prenantes Interagir avec des interlocuteurs de haut niveau (DAF, directions métiers, Directoire) Piloter des dispositifs multi-équipes incluant des prestataires et centres de services Sécuriser l’avancement du programme dans un contexte transverse et international Conformité réglementaire Intégrer les contraintes réglementaires liées aux exigences BCBS239 Garantir la qualité, la traçabilité et la fiabilité des données financières et de risques Profil recherché Expérience confirmée en Direction de Programme IT dans le secteur bancaire Solide compréhension des systèmes d’information Finance / Risques Bonne culture Big Data (enjeux, architectures, cas d’usage) sans être un profil développeur Expérience du pilotage de programmes complexes et fortement exposés Capacité à dialoguer avec des interlocuteurs métiers et techniques Expérience de gestion de prestataires et de centres de services Excellentes compétences de communication, leadership et gestion des priorités Conditions Localisation : à définir (présence régulière requise) Démarrage : idéalement début avril Durée : longue mission
Offre d'emploi
Data engineer (H/F)
Amiltone
Publiée le
35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Offre d'emploi
Data Engineer Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Offre d'emploi
Data Engineer Databricks
Craftman data
Publiée le
Apache Spark
Databricks
PySpark
9 mois
Casablanca, Casablanca-Settat, Maroc
Localisation : Casablanca / Rabat Démarrage : ASAP Expérience : 3 ans minimum sur Databricks 🎯 Contexte Dans le cadre du développement de son usine digitale DiversIT orientée Data , le client renforce ses équipes et recherche un Data Engineer Databricks afin d’accélérer la mise en œuvre de cas d’usage data sur sa plateforme. 🚀 Missions principales Développer et industrialiser des cas d’usage data sur Databricks Concevoir et maintenir des pipelines de données performants Exploiter la Databricks Data Intelligence Platform Manipuler et transformer des données via SQL, Python et Spark Participer à l’optimisation des traitements (performance, coûts) Contribuer à la fiabilité et à la qualité des données 🛠️ Compétences requises Databricks (Azure Databricks) Spark (indispensable) Python & SQL Bonne maîtrise des environnements data cloud Expérience en développement de pipelines data 👤 Profil recherché Data Engineer confirmé à senior ( 3+ ans ) sur Databricks Capacité à travailler en autonomie sur des sujets data complexes Bon esprit d’analyse et rigueur technique Expérience sur des projets data à forte volumétrie appréciée ⭐ Atouts Expérience sur des plateformes Data modernes Connaissance des bonnes pratiques d’industrialisation data Sensibilité à la qualité et à la gouvernance des données 👉 Mission longue, avec fort enjeu autour de la data platform et de l’industrialisation des cas d’usage .
Offre d'emploi
Lead Developer .NET / Vue.js
RIDCHA DATA
Publiée le
.NET
API REST
Vue.js
1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d’un projet applicatif stratégique , un Lead Developer .NET / Vue.js est recherché afin de piloter techniquement une équipe de développement. Le Lead Developer interviendra au sein d’une squad composée de 5 personnes : 2 développeurs Full Stack 1 Architecte 1 développeur Backend (mi-temps) 1 alternante L’objectif est d’assurer le pilotage technique des développements , garantir la qualité des livrables et accompagner l’équipe dans la réalisation des projets. Missions principalesPilotage technique Encadrer techniquement les développeurs afin de garantir le respect des standards et exigences technologiques . Participer aux choix techniques et à l’architecture applicative . Assurer la qualité du code et des bonnes pratiques de développement . Développement Participer activement aux développements applicatifs en .NET et Vue.js . Contribuer au développement et à la maintenance des applications existantes . Intervenir sur le développement d’ API et d’applications client lourd . Coordination et suivi Identifier et anticiper les points bloquants techniques . Assurer un reporting régulier auprès des parties prenantes du projet. Accompagner les membres de l’équipe dans leur montée en compétences. Environnement technique .NET Vue.js API REST Architecture applicative Développement client lourd Organisation du travail 3 jours sur site à Lyon 2 jours en télétravail
Mission freelance
Software Engineer Informatica PowerCenter Talend (H/F)
EXMC
Publiée le
API
Informatica PowerCenter
Talend
1 an
Paris, France
Service chargé d’interagir avec l’équipe produit, les équipes projets, ainsi que les équipes sécurité et architecture. Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix. Services : Contribution au développement, à la livraison et à la maintenance des applications Talend ou Informatica ; Conception, tests et documentation des nouvelles solutions ; Garantie du respect des bonnes pratiques de développement et des exigences de sécurité. Livrables : Ateliers, documentation de conception et de design ; Développement des applications, tests unitaires et livraison ; Support aux phases de recette utilisateur (UAT).
Offre d'emploi
Consultant Senior Data / BI Engineer (H/F)
Aleysia
Publiée le
Azure DevOps
BI
Microsoft SQL Server
12 mois
40k-45k €
400-550 €
Arcueil, Île-de-France
Si la Data BI est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste de Consultant Senior Data / BI Engineer ! 🚀 Ton challenge si tu l’acceptes : Concevoir et développer des flux d’intégration de données fiables et performants avec SSIS, T-SQL et Python . Collaborer à la conception de l’architecture data et des Datamarts sur SQL Server et Azure. Gérer la maintenance corrective et évolutive des modèles tabulaires SSAS et des rapports Power BI . Participer activement à l’amélioration continue des processus et des performances des flux de données. Implémenter des tests et automatisations pour garantir la qualité et la fiabilité des données. Suivre les bonnes pratiques BI, participer aux revues de code et optimiser les modèles de données. Travailler en méthodologie Agile/Scrum , collaborer avec les Product Owners, chefs de projets et équipes techniques.
Mission freelance
Software Engineer Lead Informatica CDI (H/F)
EXMC
Publiée le
API
Informatica Cloud (IICS)
Informatica PowerCenter
1 an
Paris, France
Technologies : Informatica IDMC CDI, Oracle, SQL Server Services : Contribution au développement de solutions Informatica Cloud (CDI), migration des applications PowerCenter on-promise et Talend ; Conception, tests et documentation des nouvelles solutions ; Support aux équipes projet et aux entités en France et à l’international (Europe, Asie, Amériques) ; Application des bonnes pratiques de développement et accompagnement des autres membres de l’équipe ; Garantie du respect des normes de sécurité. Service to be integrated in data integration product extended team based in Paris and Lisbon and managed by a product manager service and product owners. Service to interact with the product team, project teams, security and architecture teams Technologies : Informatica IDMC CDI, Oracle, SQL Server Services: · Contributing the development of Informatica cloud solutions (CDI), migrating PowerCenter on-promise and Talend applications · Designing, testing and documenting of the new solution; · Providing support to the project teams and entities in France or near/offshore (Europe, Asia , America); · Applying development best practices in the delivery and supporting other development team members · Ensuring compliance with security guidelines.
Offre d'emploi
Data Engineer (3+ ans d'exp)
WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)
1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Offre FREELANCE qui devient CDIC quand l'ESN appelle
- amortissements véhicule acheté avant début d'activité
- Facturation électronique 01 : Rappel du calendrier !
- Seulement 25% de mes candidatures sont consultées
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Facturation electronique 2026
2841 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois