L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 673 résultats.
Offre d'emploi
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse
12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Mission freelance
Développeur EBX Senior
EMGS GROUP
Publiée le
Apache Kafka
API REST
AWS Cloud
3 mois
450-550 €
Paris, France
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Mission freelance
Data Scientist
Nicholson SAS
Publiée le
Data analysis
Large Language Model (LLM)
Machine Learning
8 mois
680 €
Île-de-France, France
Mission Freelance : Data Scientist – IA Conversationnelle & Test Ops Rejoignez un projet d’envergure chez mon client ( IDF sud) pour accompagner l’industrialisation d'une solution de relation client innovante basée sur l’IA ( Speech-to-Speech ). Après une mise en production réussie, l'enjeu est désormais le déploiement multi-canal à grande échelle. Vos Missions Intégré au sein d'une équipe agile, vous interviendrez sur deux axes stratégiques : Perfectionnement du Monitoring : Optimisation du suivi de la solution en conditions réelles. Mise en place d'une Test Case Factory IAisée : Développement de scénarios de tests automatisés via la Data Science pour garantir la robustesse de chaque nouvelle version (Test Ops). Profil Recherché Formation : Diplômé d'une école d'ingénieurs du Top 10 (ou équivalent international). Expérience : Profil junior accepté. Pour les profils expérimentés, une expertise solide en NLP, LLM et Agentique est indispensable. Compétences clés : Data Science appliquée à l'automatisation et au traitement de texte/voix. Conditions du poste Démarrage : ASAP Durée : Jusqu'au 31/12/2026 Localisation : (94), avec 2 jours de télétravail par semaine. Budget : TJM max 680€ . Une opportunité rare de travailler sur des technologies de pointe (Speech-to-Speech) dans un contexte industriel exigeant.
Offre d'emploi
BI / IT Specialist (H/F) - 94
MP Advertising
Publiée le
BI
Data modelling
ERP
6 mois
50k €
Val-de-Marne, France
Nous recherchons un BI / IT Specialist pour gérer et faire évoluer le système d’agrégation des factures du système à l’échelle EMEA. Ce poste se situe à l’interface entre la Business Intelligence, l’IT et la Finance, avec pour objectif de garantir la fiabilité des traitements de données, la cohérence des mappings et une intégration fluide avec les systèmes locaux et le système central du Groupe. Le candidat jouera un rôle clé dans la maintenance du système, la qualité des données et la coordination des développements techniques. Gestion du système & traitement des données Superviser les flux de données et garantir leur qualité entre les systèmes locaux et le système Groupe ; Accompagner l’intégration de nouveaux ERP / entités dans Eden. Mapping & gestion des données de référence (Master Data) Maintenir la logique de mapping (produits, clients, données financières) et assurer l’alignement avec les systèmes MES et MDM ; Gérer la création et le cycle de vie des codes produits (création, mise à jour, retrait). Clôture mensuelle & validation des données Piloter le processus de clôture mensuelle dans le système Eden : de l’intégration des factures jusqu’au traitement et à la transmission vers le MES du montant correct du chiffre d’affaires net EMEA ; Coordonner les activités de clôture mensuelle en assurant la cohérence avec le reporting financier ; Investiguer et résoudre les anomalies de données (factures manquantes ou incorrectes, incohérences de référentiel, problèmes de paramétrage produit) ; Valider les données dans les rapports définis par le management, notamment ceux de la Finance ainsi que d’autres départements (ex : reportings Marketing type MBR, planification financière (DOP), etc.) ; Collaborer avec les équipes support IT pour identifier les problèmes et proposer des solutions ; Valider les améliorations livrées dans son périmètre (validation finale sous la responsabilité du Head of Finance BI). Coordination de projets & collaboration IT Proposer de manière proactive des pistes d’amélioration et d’évolution des outils et reportings existants ; Faire le lien entre les équipes métiers et IT pour les évolutions et nouveaux développements ; Coordonner les projets, réaliser les tests (UAT) et valider les livrables ainsi que la documentation IT.
Mission freelance
DevSecOps Cloud AWS (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
DevOps
2 ans
450-530 €
Lyon, Auvergne-Rhône-Alpes
Fonctionnement : 2 jour sur site à Lyon Les missions attendues par le DevSecOps Cloud AWS (H/F) : Dans le cadre de l’industrialisation des technologies cloud à l’échelle, nous recherchons un(e) Ingénieur DevSecOps / Cloud pour accompagner la structuration, la sécurisation et l’automatisation du cycle de vie des produits numériques. L’objectif : garantir performance, sécurité, résilience et fluidité des livraisons dans une logique DevSecOps et Cloud native . 🎯 Vos missions1️⃣ Industrialisation des livraisons (CI/CD) Mettre en place et maintenir les pipelines CI/CD Automatiser les tests (unitaires, intégration, non-régression) Gérer les pipelines de build et de déploiement Faciliter le delivery produit de bout en bout 2️⃣ Sécurité – Security by Design Intégrer des scans de sécurité automatisés dans les pipelines Piloter la gestion des vulnérabilités (détection, remédiation, suivi) Contribuer à l’architecture sécurisée du produit avec les équipes cybersécurité Promouvoir les bonnes pratiques de développement sécurisé 3️⃣ Infrastructure as Code & automatisation Automatiser la gestion des infrastructures (IaC) Gérer la configuration cohérente des environnements (test, recette, production) Optimiser les ressources cloud 4️⃣ Monitoring, observabilité & performance Mettre en place des outils de supervision et de logs Mettre en place des alertes proactives et des dashboards Collaborer avec les équipes exploitation et performance pour le suivi en production 5️⃣ Amélioration continue & résilience Participer aux diagnostics type Accelerate Identifier des leviers d’amélioration (qualité, rapidité, stabilité) Contribuer aux Gamedays RUN pour tester la résilience Capitaliser sur les retours d’expérience (Post-Mortem, Incident Review) 6️⃣ Culture & collaboration DevSecOps Travailler en étroite collaboration avec développeurs, PO, sécurité et exploitation Acculturer les équipes aux pratiques DevSecOps Documenter outils, processus et incidents Contribuer à la communauté DevSecOps interne (guildes, rituels, veille)
Mission freelance
Data Analyst (H/F) - Belgique
Mindquest
Publiée le
Python
SQL
3 mois
340-500 €
Gosselies, Hainaut, Belgique
Dans le cadre de ses activités, notre client recherche un(e) Data Analyst Transverse pour rejoindre l’équipe Reporting Transversal au sein de la Direction Stratégie & Transformation. Vous interviendrez sur l’analyse et la valorisation des données afin de soutenir la prise de décision stratégique et améliorer les performances globales de l’entreprise. Mission 1. Aide à la décision stratégique * Développer et implémenter des modèles et algorithmes de traitement de données * Produire des analyses avancées pour orienter les décisions stratégiques * Collaborer avec les métiers pour identifier les besoins data et proposer des solutions adaptées 2. Valorisation des données * Analyser les tendances et performances opérationnelles * Construire des scénarios prospectifs * Concevoir des dashboards et visualisations interactives (Power BI) 3. Contribution aux projets transverses * Participer aux projets de transformation de l’entreprise * Assurer la communication avec les différentes équipes * Contribuer aux initiatives de transformation digitale
Mission freelance
POT9062 - Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris
Almatek
Publiée le
Git
6 mois
Paris, France
Almatek recherche pour l'un de ses clients Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris. Contexte de la mission Le projet HALO est un programme stratégique de digitalisation des parcours bancaires (vente en ligne, souscription, IA). La Direction Data met en place une plateforme Big Data pour alimenter les cas d’usage métiers à forte valeur ajoutée. Il s’agit d’un nouveau projet (build) avec des enjeux de performance, d’intégration IA et de montée en charge. L’environnement technique est centré sur un écosystème Hadoop/Cloudera on-premise. Missions principales • Participer à la définition de l’architecture Data en lien avec les architectes et la squad • Affiner les User Stories avec le PO/BA, concevoir et développer les pipelines de collecte et de stockage des données • Orchestrer les flux batch et temps réel (Spark batch + Spark Streaming) • Mettre en œuvre les tests unitaires et automatisés • Déployer le produit dans les différents environnements (CI/CD) • Garantir le bon fonctionnement en production : monitoring, gestion des incidents, optimisation • Accompagner l’équipe dans une logique d’amélioration continue de la qualité du code Environnement technique Catégorie Technologies Framework Big Data Hadoop Cloudera (requis) Traitement Spark, PySpark, Spark Streaming (requis) — Scala (apprécié) Messaging Kafka, Kafka Connect, Kafka Streams (apprécié) Langages SQL (requis), Scala, Java, Shell, Python Bases de données SQL : Hive, Phoenix — NoSQL : HBase, MongoDB DevOps / CI-CD Git, Jenkins, Artifactory, XL Deploy, XL Release Monitoring ELK Stack (Elasticsearch, Logstash, Kibana), Grafana Gouvernance RGPD, Data Lineage, Catalogage
Mission freelance
Senior Smart Automation & Agentic AI Dev (H/F)
ADSearch
Publiée le
API
AWS Cloud
Azure
3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre du développement de nos capacités en Smart Automation et Agentic AI , nous recherchons un Senior Smart Automation Developer afin de concevoir, développer et industrialiser des solutions avancées d’automatisation des processus. Ces solutions s’appuient principalement sur la plateforme Dataiku et sur ses capacités LLM Mesh , permettant l’intégration de modèles de langage et d’agents d’IA dans des workflows automatisés. L’objectif de l’équipe est de créer des automatisations intelligentes capables d’orchestrer les données, les systèmes applicatifs et les agents d’IA afin d’optimiser et de simplifier les processus opérationnels. Le Senior Smart Automation Developer jouera un rôle clé dans la conception technique , le développement et l’ industrialisation de ces solutions. Objectifs et livrables Principales responsabilités 1. Concevoir des solutions d’automatisation intelligente Concevoir des solutions d’automatisation des processus en s’appuyant sur la plateforme Dataiku . Définir des architectures d’automatisation combinant : des pipelines de données l’ orchestration de workflows l’ intégration avec les systèmes applicatifs des agents d’IA Exploiter les capacités LLM Mesh de Dataiku pour intégrer des modèles de langage dans des processus automatisés. 2. Développer des solutions d’Agentic AI Concevoir et mettre en œuvre des agents d’IA capables d’exécuter ou d’assister des tâches au sein de processus automatisés. Développer des workflows intégrant des LLM via Dataiku LLM Mesh . Mettre en place la logique d’orchestration entre : les agents d’IA les pipelines de données les systèmes applicatifs 3. Industrialisation et intégration Concevoir, développer et maintenir des pipelines automatisés et des workflows sur la plateforme Dataiku . Intégrer les solutions d’automatisation avec les systèmes d’information existants via des API et des services applicatifs . Appliquer les bonnes pratiques d’industrialisation : gestion de versions monitoring / supervision automatisation des déploiements gouvernance des workflows 4. Collaborer avec les équipes IT Travailler en étroite collaboration avec les équipes IT en charge des systèmes impliqués dans les processus automatisés. Concevoir les mécanismes d’intégration avec les applications existantes. Contribuer à la définition des patterns d’intégration et des standards techniques . 5. Contribuer à la plateforme Smart Automation Participer à l’évolution de la capacité Smart Automation & Agentic AI . Définir des standards de développement et d’architecture pour l’automatisation. Accompagner / mentorer des profils techniques plus juniors. Promouvoir les bonnes pratiques en matière d’automatisation et d’usage des LLM .
Mission freelance
Data Ingineer Databriks
Nicholson SAS
Publiée le
Databricks
PySpark
Python
9 mois
Paris, France
Bonjour, Dans le cadre d’un programme stratégique autour de la data, nous recherchons plusieurs Data Engineers Databricks pour intervenir sur une plateforme à fort enjeu. 📍 Localisation : France – 100% Remote 📅 Démarrage : ASAP 📆 Fin de mission : 31/12/2026 💰 TJM (selon séniorité et localisation) Paris : Séniorité 3 : 580 € Séniorité 4 : 660 € Séniorité 5 : 740 € Province : Séniorité 3 : 520 € Séniorité 4 : 590 € Séniorité 5 : 670 € 🚀 Contexte & Missions Dans le cadre du développement d’une usine data (plateforme Databricks) , vous interviendrez pour accélérer la mise en œuvre de cas d’usage data à forte valeur ajoutée. L’objectif est de renforcer les équipes avec 6 Data Engineers (confirmés à seniors). À ce titre, vos missions seront : Développer et industrialiser des pipelines de données sur Databricks Participer à la mise en œuvre de cas d’usage data Optimiser les traitements et la performance des workflows data Contribuer à l’architecture et à l’évolution de la plateforme data Garantir la qualité, la fiabilité et la traçabilité des données 🛠️ Environnement technique Databricks (Data Intelligence Platform) Azure Databricks Apache Spark Python SQL 🎯 Profil recherché Data Engineer Databricks Expérience : à partir de 3 ans (profils confirmés à seniors) Bonne maîtrise des environnements data modernes et distribués Capacité à travailler en autonomie dans un contexte agile ✅ Compétences clés Développement de pipelines data sur Databricks Maîtrise de Spark (PySpark) Solide niveau en Python & SQL Bonne compréhension des architectures data (batch / streaming) 💡 Mission long terme avec forte visibilité.
Mission freelance
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES
WorldWide People
Publiée le
Semarchy
12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Offre d'emploi
Data Engineer - SPARK/SCALA/DATABRICKS
UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks
1 an
40k-66k €
400-600 €
Île-de-France, France
📢 Data Engineer Scala Spark – Environnement Cloud (H/F) 🧩 Contexte Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements. Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée. 🚀 Missions principales Développement de pipelines data en Scala / Spark (batch principalement) Optimisation des traitements et gestion de volumétries importantes Mise en place et amélioration des bonnes pratiques de développement Participation à l’architecture et aux choix techniques Collaboration avec les équipes métiers et techniques Contribution au mentoring et partage de connaissances 🧰 Stack technique Scala / Spark Maven Environnement Cloud (AWS ou Azure) Databricks (selon contexte) API HTTP Stack ELK (optionnel) ✅ Must have Solide expérience en Scala / Spark (batch) Maîtrise des optimisations Spark Expérience sur fortes volumétries de données Bonnes pratiques de développement (clean code, build, versioning) Expérience en environnement Cloud (AWS ou Azure) Minimum 5 ans d’expérience en Data Engineering ➕ Nice to have Expérience avec Databricks Développement d’ API HTTP Connaissance de la stack ELK Expérience en environnement multi-projets 🤝 Soft skills Esprit d’analyse et rigueur Autonomie et force de proposition Bon relationnel et esprit d’équipe Capacité à comprendre les enjeux métiers Sens des priorités et gestion des délais 🎓 Profil Formation Bac+3 à Bac+5 en informatique Anglais technique requis 8 ans d'expériences MINIMUM ! 📍 Modalités Télétravail partiel (jusqu’à 3 jours / semaine) Mission longue Démarrage : ASAP
Mission freelance
Chef de Projet Infrastructure Cloud (Azure/AWS) – Secteur Luxe
Zenith Rh
Publiée le
Azure
Cloud
Infrastructure
6 mois
Hauts-de-Seine, France
Le contexte : Vous rejoignez le département Infrastructure d'une des maisons de luxe les plus prestigieuses au monde. Dans un environnement en forte croissance et à la culture entrepreneuriale, vous êtes le chef d'orchestre entre les experts techniques et les directions métiers (Parfums, Beauté, Mode, Immobilier). Votre défi : Oubliez la gestion d'un projet unique. Ici, vous pilotez un portefeuille de 10 à 20 projets en parallèle (Cloud Azure, Data, IA, Retail). Votre rôle n'est pas de faire le travail des experts, mais de garantir que la valeur est livrée, que les délais sont tenus et que la communication est fluide. Vos missions prioritaires : Cadrage & Structure : Transformer des besoins exprimés oralement en feuilles de route structurées. Apporter du cadre là où il manque de formalisme. Interface Métier : Traduire les enjeux techniques en bénéfices business pour les directions applicatives. Pilotage Proactif : Relancer, coordonner et "challenger" les parties prenantes (internes et externes) pour débloquer les situations. Reporting de Haute Précision : Offrir une visibilité claire à la direction via des indicateurs pertinents (l'exigence du luxe impose une finition parfaite).
Mission freelance
Developpeur Data Engineer
Freelance.com
Publiée le
Big Data
Snowflake
3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Offre d'emploi
📩 Azure Platform Engineer – Data & Analytics Platform
Gentis Recruitment SAS
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD
3 mois
40k-45k €
300-400 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data cloud à l’échelle groupe, notre client recherche un Azure Platform Engineer pour renforcer une équipe en charge de la conception, du déploiement et de l’exploitation de la plateforme. Les enjeux sont forts autour de : la scalabilité la gouvernance des données la sécurité la performance des traitements L’environnement est majoritairement Azure , avec une ouverture possible vers du multi-cloud. Vos missions Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures via Terraform / Bicep / ARM Gestion des ressources Azure : ADLS Gen2, Blob Storage Réseaux (VNet, NSG, Private Endpoints) Gestion des environnements DEV / TEST / PROD Data Platform Administration et exploitation d’un Data Lake Azure Mise en place des règles de gouvernance et sécurité : Azure AD / RBAC Policies / Purview Optimisation des performances et des coûts CI/CD & automatisation Mise en place et maintenance de pipelines CI/CD Automatisation des déploiements (infra + data + services) Environnements : Azure DevOps / GitHub Actions Développement & APIs Développement de microservices en Python Création d’APIs REST Intégration avec les services Azure (Functions, Event Hub…) Containers & orchestration Déploiement de services containerisés (Docker) Orchestration via AKS / Azure Container Apps Monitoring & fiabilité Mise en place de la supervision : Azure Monitor Log Analytics Application Insights Suivi des performances et de la disponibilité Collaboration Rédaction de documentation technique Interaction avec équipes data, dev et métiers Participation aux rituels Agile Stack technique Cloud : Azure Data : ADLS Gen2, Databricks, Synapse IaC : Terraform, Bicep, ARM CI/CD : Azure DevOps, GitHub Actions Containers : Docker, AKS Langage : Python Streaming : Event Hub, Service Bus
Offre d'emploi
Alternance - Data Analyst Appui Innovation F/H
█ █ █ █ █ █ █
Publiée le
autonomie
Microsoft Excel
Python
9 720-21 612 €
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Senior Data Scientist
Gentis Recruitment SAS
Publiée le
Machine Learning
MLOps
Python
6 mois
53k-91k €
530-1k €
Luxembourg
Nous recherchons un(e) Senior Data Scientist pour concevoir, développer et déployer des modèles de data science à fort impact métier (segmentation, churn, fraude, marketing, prévision, optimisation). Vous interviendrez sur l’ensemble du cycle de vie des projets : exploration des données, feature engineering, modélisation, évaluation, mise en production et monitoring. Vous serez également responsable de la performance et de la robustesse des modèles dans le temps (dérive, recalibrage), tout en garantissant leur explicabilité et leur conformité. En collaboration avec les équipes Data Engineering, IT et métiers , vous contribuerez à l’industrialisation des solutions et à leur adoption. Vous participerez également à la diffusion des bonnes pratiques et jouerez un rôle de référent technique auprès de profils plus juniors.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2673 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois