L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 408 résultats.
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
PROPULSE IT
Publiée le
Azure
BI
DevOps
24 mois
325-650 €
France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Offre d'emploi
Data Scientist F/H - Finance, trésorerie (H/F)
█ █ █ █ █ █ █
Publiée le
Ocaml
Python
SQL
Le Relecq-Kerhuon, Bretagne
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
1 an
500-600 €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Offre d'emploi
Analyste Data
CAT-AMANIA
Publiée le
Big Data
Microsoft Power BI
PySpark
2 ans
40k-48k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Analyste Data pour intégrer l’équipe Analyse de la Donnée. Rattaché à l’équipe, vous serez en charge de mettre en œuvre des cas d’usage métier via le croisement de données, développer et maintenir des produits DATA réutilisables, et restituer vos analyses à travers des dashboards et dataviz. Vous accompagnerez également les équipes métiers dans l’acculturation DATA tout en respectant les normes et bonnes pratiques de l’équipe. Maîtrise de Python, PySpark, SQL , expérience sur Big Data Hadoop (Cloudera) et compétences en Power BI sont requises, ainsi qu’une solide expertise en data science et analyse de données.
Offre d'emploi
Data Architect H/F
OBJECTWARE
Publiée le
Azure Data Factory
Microsoft Fabric
Microsoft Power BI
60k-65k €
Bordeaux, Nouvelle-Aquitaine
Résumé du poste Notre client recherche un Data Architect expérimenté pour rejoindre une équipe Data Fabric et contribuer à la conception et à la mise en œuvre de l’architecture data à l’échelle de l’entreprise. Le rôle se concentre sur la création de produits de données réutilisables pour les domaines métiers , en travaillant étroitement avec les équipes Master Data Management (MDM), Data Engineers, Data Analysts, Information Security ainsi que les parties prenantes métiers. Le poste combine leadership architectural et travail opérationnel , incluant la modélisation de données, la conception d’intégrations, la mise en œuvre de la gouvernance et la configuration de la plateforme . Principales responsabilitésArchitecture de données & gouvernance Identifier et formaliser les domaines de master data à l’échelle de l’entreprise (Customer, HR, Finance, etc.). Collaborer avec l’équipe MDM pour concevoir les structures de golden record, la logique de consolidation et les flux d’intégration . Concevoir et documenter des produits de master data réutilisables (schémas, contrats, modes d’accès, APIs). Contribuer à la modélisation des données aux niveaux conceptuel, logique et physique sur les différents domaines de données. Travailler avec les Data Engineers pour traduire l’architecture en medallion layers, zones curées et pipelines d’intégration . Définir des standards de gouvernance incluant ownership, stewardship, lineage, classification et gestion du cycle de vie des données . Configurer les standards de métadonnées et les structures du catalogue de données afin d’assurer la découvrabilité et la réutilisation . S’assurer que les décisions architecturales sont clairement documentées et exploitables . Évolution de la plateforme, qualité & gouvernance Concevoir et mettre en œuvre des modèles de sécurité des données (RBAC, classification, masquage, contrôles de confidentialité). Participer à la mise en œuvre et à l’exploitation des outils de gouvernance des données (ex : Microsoft Purview), incluant scans, validation du lineage et classification . Définir des standards pour la documentation, la découvrabilité et l’enregistrement des data products dans la plateforme . Examiner les implémentations des domaines de données afin d’éviter la duplication ou la fragmentation des master data . S’assurer que la gouvernance et les métadonnées sont intégrées dans les processus CI/CD et de déploiement . Identifier et réduire les risques liés à l’incohérence des données, aux shadow master data ou à la prolifération non contrôlée des données . Contribuer à l’évaluation de nouvelles technologies et analyser leurs impacts en matière de gouvernance et d’intégration . Support et accompagnement Fournir un accompagnement architectural aux Data Engineers et Data Analysts . Participer à des ateliers techniques et sessions de conception . Accompagner l’ intégration de nouveaux domaines de données via des templates architecturaux et des implémentations de référence . Promouvoir des pratiques cohérentes en matière de métadonnées, sécurité et qualité des données . Agir comme interface entre l’équipe Data Platform, l’équipe MDM et les parties prenantes gouvernance / sécurité .
Mission freelance
Chef de Projet Marketing éditorial / d’Influence
Cherry Pick
Publiée le
Branding
Market data
Marketing
12 mois
300-380 €
Île-de-France, France
Responsabilités clés Définir la feuille de route Influence et Opérations Spéciales alignée avec les objectifs éditoriaux. Imaginer et concevoir des dispositifs d’influence et des opérations spéciales innovants à fort impact. Négocier, cadrer et piloter les collaborations avec partenaires et créateurs. Mettre en place et suivre les campagnes d’influence et opérations spéciales. Analyser les résultats, formuler des recommandations et produire des bilans numériques. Assurer une veille active sur les tendances social media, plateformes et créateurs. Maintenir à jour le planning prévisionnel des temps forts et programmes phares. Contribuer à l’amélioration du suivi des performances en collaboration avec la data. Compétences et expertises requises Expérience confirmée (4-5 ans minimum) en marketing d’influence, social media, brand content. Connaissance approfondie des médias, plateformes digitales, VOD et enjeux éditoriaux. Excellentes qualités rédactionnelles, orthographe et grammaire irréprochables. Capacité à travailler de manière transversale et en équipe. Esprit analytique et de synthèse, gestion de projet structurée et rigoureuse. Maîtrise des outils collaboratifs : Trello, Slack, Teams, Klaxoon. Connaissance d’outils d’analytics (AT Internet / Piano Analytics) appréciée.
Offre d'emploi
Expert Data spécialisé sur Semarchy
OBJECTWARE
Publiée le
Semarchy
6 mois
Indre-et-Loire, France
Nous recherchons un Expert Data spécialisé sur Semarchy pour intervenir sur un projet autour de la gestion et de la gouvernance des données . Vos missions : Mise en place et évolution de solutions Semarchy (MDM) Modélisation et gestion des référentiels de données Participation à la gouvernance et à la qualité des données Collaboration avec les équipes techniques et métiers Profil recherché : Expérience sur Semarchy xDM / MDM Bonne compréhension des enjeux data / gouvernance des données Autonomie et capacité à intervenir sur des environnements data 📍 Poste basé en Indre-et-Loire (37) 📅 Démarrage : dès que possible
Mission freelance
Data Analyst Sénior
CAT-AMANIA
Publiée le
Data analysis
3 ans
Lyon, Auvergne-Rhône-Alpes
🎯 Taches principales - activités BI - Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage - Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers - Présenter les résultats aux équipes métiers - Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital - Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue 🎯 Une connaissance fonctionnelle de l’analyse data dans le domaine bancaire pour apporter un regard critique et répondre aux problématiques d’analyse de donnée des métiers 🎯 Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : - Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage - Réaliser les spécifications et recettes du tracking - Collecter et extraire les données nécessaires à l’analyse - Construire des tableaux de bord - Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. - Présenter le rendu aux squads métiers En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : • Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI) • Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées ⚠️ Soft skills indispensables du fait du positionnement Chapitre : Autonome, Adaptable, Bonne communication / Pédagogue, Sait challenger les besoins / Prise de Lead Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : • Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey • Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses.
Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419
ISUPPLIER
Publiée le
9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
Mission freelance
[SCH] Analytics Engineer / Data Engineer Conformité – Lutte contre la fraude - 1413
ISUPPLIER
Publiée le
10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre de la plateforme SPIDER, dédiée à la lutte contre la fraude, le blanchiment et le financement du terrorisme, notre client recherche un Analytics Engineer / Data Engineer orienté conformité. Intégré à la squad compliance de solutions cognitives, le consultant interviendra sur une plateforme d’investigation s’appuyant sur des technologies graphes comme Neo4j et Linkurious, permettant de centraliser les données issues de multiples applications internes et d’offrir une vision 360° des personnes et de leurs interactions. La mission porte plus particulièrement sur le socle d’ingestion de données alimentant la base graphe, avec un fort enjeu de qualité, de modélisation, d’industrialisation et de collaboration avec les métiers fraude et LCB-FT. Missions : -Transformer, modéliser et documenter les données brutes pour les rendre exploitables -Développer des modèles et produits de données orientés conformité pour alimenter la base graphe -Maintenir en condition opérationnelle les flux d’ingestion vers la base de données graphe -Améliorer les processus de traitement des données afin de gagner en rapidité et efficacité -Créer et mettre à jour la documentation des produits de données -Automatiser les contrôles et tests de qualité pour garantir l’intégrité des données -Produire des analyses à destination des métiers pour le calibrage de scénarios de fraude et de vigilance LCB-FT -Collaborer avec les Data Engineers et les métiers de la fraude / conformité pour enrichir la base graphe -Participer à la mise en production des produits de données avec l’équipe Data Platform -Contribuer à la structuration des flux dans une logique ELT / ETL et architecture data moderne Profil attendu : -Expérience confirmée en Analytics Engineering / Data Engineering -Très bonne maîtrise de SQL et Python -Bonne connaissance des concepts ETL / ELT -Expérience en modélisation de données -Connaissance de Snowflake et Dataiku -Bonne compréhension des architectures data modernes (médaillon, data mesh) -Capacité à travailler sur des sujets de qualité, documentation et industrialisation -Aisance à collaborer avec des équipes techniques et métiers -Sensibilité aux enjeux de fraude, conformité et LCB-FT appréciée -Rigueur, autonomie et bon niveau d’analyse
Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities
WHIZE
Publiée le
Big Data
Finance
3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
Offre d'emploi
Senior IT Production Data Analyst / Incident Manager
OBJECTWARE
Publiée le
ServiceNow
2 ans
Île-de-France, France
Contexte de la mission : Dans le cadre de l’évolution de la Group Control Tower , nous recherchons un Senior IT Production Data Analyst / Incident Manager afin d’accompagner l’exploitation et la valorisation des différents modules de la plateforme. Le consultant interviendra en étroite collaboration avec les Product Owners et les équipes techniques (Réseaux, Sécurité, Flux, Développement) afin d’analyser les données de production, améliorer les performances des environnements et identifier des leviers d’optimisation basés sur l’analyse des données. Missions principales :Analyse et optimisation des environnements de production Recommander des axes d'amélioration dans l’exploitation et la valorisation des modules de la Group Control Tower Analyser les données techniques de production afin d’identifier des leviers d’optimisation Produire des analyses et dashboards permettant d’améliorer la performance des environnements Travailler avec les Product Owners afin d'améliorer l'utilisation et la performance du produit Gestion des incidents et support opérationnel : Piloter la gestion des incidents de production Assurer le suivi du cycle de vie des incidents jusqu’au rétablissement du service Coordonner les actions avec les équipes techniques (Réseaux, Sécurité, Flux, Développement) Analyser les causes racines et proposer des plans d'amélioration Gestion des changements et support aux équipes : Garantir la bonne exécution des changements en production Assurer le suivi, le reporting et la communication autour des changements Contrôler les environnements et les changements de version Intervenir en support des équipes de développement Communication et coordination : Assurer la communication auprès des Product Owners et de la hiérarchie Participer aux cérémonies Agile Produire les reportings et tableaux de bord de suivi Environnement technique Microsoft O365 SQL Outils BI / Analytics ServiceNow Dynatrace (apprécié) Outils de monitoring et d'analyse de production Analyse de données techniques de production Statistiques appliquées aux environnements IT
Offre d'emploi
Développeur Java/Data confirmé
VISIAN
Publiée le
Java
Mongodb
1 an
40k-45k €
290-410 €
Paris, France
Descriptif du poste Un groupe bancaire la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que les équipes IT recherchent un développeur Java/Data confirmé, qui saura participer au développement et à l'implémentation de ce service de Reporting, qui devra assurer le traitement de gros volumes de données pour générer des reporting de manière fiable et résiliente. La mission consistera à intégrer l'équipe agile en place pour participer à l'implémentation des reportings clients et des services associés avec le tech lead et ses coéquipiers, en collaboration avec les équipes du Socle Data de la monétique, mais aussi celles du portail client. Environnement technologique Évolution dans un environnement technologique récent : Java, API REST, PostgreSQL, ExaCC, Kafka, Cloud (Docker, Kubernetes), GitLab, etc.
Offre d'emploi
Tech Lead IA
DATACORP
Publiée le
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Localisation : Lyon Présence sur site : 3 jours par semaine en présentiel Périmètre : 45 personnes, multi-équipes, multi-technologies Contexte de la mission Dans le cadre de notre démarche d’intégration de l’intelligence artificielle au sein de nos équipes de développement, nous recherchons un·e Tech Lead IA expérimenté·e pour promouvoir et encadrer l’usage des pratiques AI auprès de nos feature teams. Ce rôle transverse s’appuie sur un framework de cadrage existant basé sur Claude Code , déployé progressivement dans un environnement multi-équipes et multi-technologies.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2408 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois