L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 475 résultats.
Offre d'emploi
Développeur Full Stack Java ANGULAR Bilingue sur Ia région Parisienne
EterniTech
Publiée le
Angular
J2EE / Java EE
Java
3 mois
Île-de-France, France
Je recherche pour un de mes clients un Développeur Full Stack Java ANGULAR Bilingue sur Ia région Parisienne La mission consiste à : · Contribute to the build and evolutions of the associated frontend and backend (majority) · Use market best practices for the implementation of flexible and reusable modules · Manage the versioning and deployment (via Maven, Git) · Support if necessary for the user acceptance · Unit tests development · Drafting technical documents (best practices) Compétences techniques, comportementales et linguistiques requises.. · Mandatory technical knowledges : o Expertize in back-end development (JAVA/J2EE) o Expertise in front-end development (Angular) o Use of AI assistants (such as GitHub Copilot, Claude, etc.) for design, development, and unit testing activities o Framework : SpringBoot o REST JSON o Ticket and test management tool: JIRA o Versioning tools: Git o Tool for production management and automation: Maven · Code Quality and security : SonarQube · Fluent in English · Test Driven Development approach (TDD) highly appreciated · Strong capacity to be a force of proposal and to work collaboratively/proactively . Expérience en assurance crédit ou banque mandatory
Offre d'emploi
TECH LEAD DATA GCP
UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python
6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Mission freelance
Devops
ESENCA
Publiée le
Datadog
Google Cloud Platform (GCP)
Kubernetes
1 an
Lille, Hauts-de-France
DevOps Engineer confirmé (H/F) – Région lilloise Localisation : Métropole lilloise (présence requise) Disponibilité : ASAP Contexte : Environnement international – Production critique avec astreintes Contexte & objectif Dans un environnement international exigeant, vous intervenez au sein d’une équipe Ops transverse afin d’accompagner les équipes produit dans la gestion des opérations, le maintien en condition opérationnelle et l’industrialisation de leurs applications. L’objectif principal est d’apporter une expertise DevOps solide pour garantir la fiabilité, la performance et la scalabilité des plateformes en production. Missions principales Diffuser les bonnes pratiques Ops auprès des équipes de développement Déployer et configurer les infrastructures (hors production et production) Mettre en place et maintenir des pipelines CI/CD Accompagner les équipes sur les sujets d’observabilité (monitoring, alerting, SLI/SLO) Participer à la gestion des incidents (analyses, post-mortems, plans d’actions) Proposer des améliorations en termes de performance, sécurité et fiabilité Contribuer à une démarche FinOps (optimisation des coûts, suivi des consommations) Participer au Run transverse (gestion de tickets, support aux équipes métiers) Automatiser les tâches récurrentes Participer aux astreintes (rotation avec l’équipe) Environnement technique Cloud & Infrastructure : Google Cloud Platform (GCP) (++ impératif) Kubernetes / GKE (++ impératif) Terraform (++ impératif) Docker (++) CI/CD & DevOps : GitHub / GitHub Actions (++) Vault (++) JFrog (++) Jira (+) Monitoring & Observabilité : Datadog (++) PagerDuty (+) Langages & Scripting : Python (++) Bash (++) Systèmes : Linux (RedHat, CentOS) (++) Bases de données : PostgreSQL (++) MongoDB (++) MySQL (++) ITSM : ServiceNow (+)
Offre d'emploi
Ingénieur Backend Python Data & IA (Graph / LLM) H/F
ADSearch
Publiée le
50k-60k €
Nice, Provence-Alpes-Côte d'Azur
En bref : CDI - Ingénieur Backend Python – Data & IA (Graph / LLM) H/F - 1jour/semaine Télétravail - Fintech - Nice (centre) - 45/55K€ Je recrute un Ingénieur Backend Python – Data & IA (Graph / LLM) H/F pour une Fintech qui construit un produit un peu spécial... L’objectif : prendre une masse d’informations disparates, la structurer intelligemment et permettre leur exploitation de manière fluide. Simple me diras-tu ? Tu rêves de travailler en plein centre-ville de Nice ? Tu cherches avec délectation les possibilités qu'offre l'IA (LLM, IA agentique, OpenAI, ...) ? Tu souhaites évoluer au sein d'une petite équipe ? Tu as une vision globale sur une application : architecture, performance, algo ? Très à l'aise avec les Bases de Données Graphes, Python n'a plus de secret pour toi ?! ET TOI DANS TOUT CA ? Tu interviens directement sur le cœur du système, parmi une équipe de 5 personnes. Ton quotidien ne sera pas de “brancher des endpoints”, mais plutôt de : - Concevoir des briques backend solides - Structurer des flux de données parfois complexes - Organiser et faire évoluer les modèles de données - Mettre en place des traitements automatisés - Intégrer des logiques d’enrichissement via l’IA - Faire évoluer la plateforme pour qu’elle tienne la montée en charge Tu touches à la fois à la technique pure… et à la logique métier Pas mal non ?!
Offre d'emploi
PMO projets IA (F/H) – Domaine bancaire - Toulouse
CELAD
Publiée le
45k-50k €
Toulouse, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ CD – 2 à 3 jours de télétravail / semaine - Toulouse - Au moins 6 ans d’expérience Envie de piloter l’impact réel de l’IA dans les organisations IT ? CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e PMO spécialisé.e en pilotage de projet IA pour maximiser l’impact de l’IA sur le cycle de développement logiciel. Le poste est basé à Toulouse Vous rejoignez un programme stratégique autour de l’IA générative, avec un enjeu clé : objectiver la valeur créée par l’IA dans les équipes IT . Votre rôle sera central pour mesurer, structurer et piloter la performance des initiatives IA, en apportant une vision claire du ROI et des impacts opérationnels . Vous interviendrez à la croisée de la data, des usages IT et des enjeux financiers . Voici un aperçu détaillé de vos missions : Définition et mesure des KPIs Identifier et formaliser les indicateurs clés pour mesurer l’impact de l’IA Suivre des axes tels que : productivité, qualité du code, vélocité, time-to-market Construire des référentiels de mesure fiables et exploitables Analyse de données quantitatives Collecter et exploiter des données issues de différents outils (CI/CD, Jira, Confluence, plateformes IA…) Croiser les sources pour identifier des corrélations et tendances Définir des baselines et mesurer les écarts de performance Analyse coûts / bénéfices – approche FinOps for AI Modéliser les coûts liés à l’usage de l’IA (tokens, licences, consommation cloud) Mettre en perspective ces coûts avec les gains opérationnels Construire des analyses de rentabilité claires et exploitables Restitution et aide à la décision Produire des supports de restitution orientés décision Présenter les résultats au top management de la DSI Formuler des recommandations pour optimiser les investissements IA Compétences nécessaires : Excellente capacité d’analyse quantitative et manipulation de données Bonne connaissance des environnements de développement logiciel (Jira, Confluence, Git, CI/CD…) Compréhension des modèles économiques Cloud et IA (approche FinOps , coût au token…) Capacité à modéliser des analyses ROI et business case Maîtrise d’outils de data visualisation (Power BI, Tableau) appréciée
Mission freelance
Ingénieur IA GenAI/ Knowledge Graph/ Mcp Service 600 e par j
BI SOLUTIONS
Publiée le
GenAI
MCP
2 ans
400-600 €
Île-de-France, France
Ingénieur IA GenAI/ Knowledge Graph/ Mcp Service 600 e par j Développement d’agents intelligents Le consultant interviendra sur la conception et l’amélioration d’agents basés sur des frameworks comme Google ADK ou LangChain / LangGraph. Ces agents devront être capables de comprendre des besoins métier (optimisation de contenu), d’interagir avec des sources de données et de générer du contenu pertinent et contextualisé. Exploitation de la donnée (RAG / Knowledge Graph) La mission inclut la mise en place de pipelines de données depuis BigQuery vers un Knowledge Graph. L’objectif est d’alimenter les agents avec des données structurées et fiables, dans une logique de Retrieval-Augmented Generation (RAG), afin d’améliorer la pertinence des outputs générés. Orchestration et intégration (MCP servers) Le consultant devra développer ou refondre des serveurs MCP qui servent de couche d’orchestration entre les agents GenAI et les systèmes externes. Cela permet aux agents d’accéder à des APIs, de manipuler des données et d’exécuter des actions dans l’écosystème existant. Finalité Mettre en place une IA capable de générer, enrichir et optimiser automatiquement du contenu web, en s’appuyant sur des données internes et en étant intégrée aux outils métiers. 600 e par jour
Mission freelance
ANALYSTE SOC N2/Automatisation
Groupe Aptenia
Publiée le
CyberSoc
6 mois
400 €
Île-de-France, France
Analyse & traitement des incidents de cybersécurité N2 Automatisation de la création et du suivi des tickets (ServiceNow, Jira). Développement de scripts et pipelines d’automatisation (Python prioritaire). Intégration avec les outils Cloud, monitoring, ETL et ITSM via API (REST/GraphQL). Industrialisation et automatisation des rapports KPI, SLA, incidents. Création de tableaux de bord (Power BI, Grafana, ELK).Intégration & DevOps Mise en place et maintenance de chaînes CI/CD (GitHub Actions, GitLab, Jenkins, Azure DevOps).
Offre d'emploi
BA ALM Trésorerie - 7 ans et plus
Digistrat consulting
Publiée le
Agile Scrum
ALM
Business Analysis
3 ans
40k-70k €
400-630 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre du plan de transformation ALMT, la mission consiste à travailler sur les applications du domaine qui sont utilisés par les trésoriers. Nous cherchons un profil BA Senior avec des compétences en ALM, Risk de Liquidité ou Risk de Crédit/Contrepartie (expérience obligatoire avec au moins un des périmètres demandé) 💡 La mission Consiste à : Business analyse Spécifications fonctionnelles Suivi des développements Formalisation des cahiers de tests Formation utilisateurs Etudes et analyses du backlog d'équipe Expertise en mode Agile
Mission freelance
SRE EXPERT
HAYS France
Publiée le
Bash
Datadog
Google Cloud Platform (GCP)
3 ans
100-460 £GB
Lille, Hauts-de-France
Site Reliability Engineer (SRE) Transverse - Plateforme CCDP Au sein de la Customer & Commerce Digital Platform (CCDP), vous interviendrez en tant que Site Reliability Engineer (SRE) Transverse. Votre rôle est clé : apporter une expertise technique pointue, soutenir les équipes Produit et garantir l'excellence opérationnelle de la plateforme. Nous recherchons un profil axé sur l'Ingénierie de la Fiabilité et l'Automatisation pour scaler nos services. Vos Responsabilités Clés Ingénierie de la Fiabilité (SRE) : Piloter l'amélioration continue de la stabilité, performance et résilience de la plateforme. Accompagner les équipes Produit dans la définition et le suivi des SLOs/SLIs (Service Level Objectives/Indicators). Gérer et analyser les incidents de production (incident response et post-mortems sans reproche). Automatisation & Réduction du Toil : Identifier, développer et déployer des outils d'automatisation (scripts, IaC) pour réduire le "Toil" des équipes de niveau 1 et 2, augmentant ainsi l'efficacité opérationnelle. Renforcer les pratiques d'Observabilité (métriques, logs, tracing) pour un diagnostic proactif. Expertise et Conseil : Apporter votre savoir-faire pour garantir la continuité de service et assister quotidiennement les équipes dans l'adoption des meilleures pratiques SRE (Infrastructure, Sécurité, Gestion des changements). Compétences Recherchées Solide expérience en tant que SRE ou DevOps/Software Engineer avec une forte culture fiabilité. Maîtrise de l'automatisation (Python/Go, Bash) et de l'Infrastructure as Code (Terraform). Connaissance approfondie de l'écosystème Kubernetes et Cloud.
Mission freelance
Chef de Projet IT Fonctionnel – Credit Corporate (CIB) - Paris
Net technologie
Publiée le
Business Analyst
Finance
Gestion de projet
1 an
640-690 €
Paris, France
Dans le cadre d’un programme stratégique de transformation ( industrialisation & modernisation de la chaîne crédit Front-to-Back ), nous recherchons un(e) Chef de Projet IT Fonctionnel pour accompagner l’évolution d’une plateforme digitale clé dédiée au crédit corporate . 🎯 Objectif : garantir la stabilité, la conformité réglementaire et l’évolution continue d’une application stratégique au cœur du processus crédit. 🚀 Missions Recueil et formalisation des besoins métiers Rédaction des spécifications fonctionnelles détaillées (règles métier, data, interfaces) Conception et exécution des tests fonctionnels (UAT) Coordination des déploiements et des campagnes de recette Gestion du changement (formation, documentation, support post-MEP) Interface avec les équipes métiers, IT et les parties prenantes 🎯 Enjeux Assurer la continuité opérationnelle Intégrer rapidement les évolutions réglementaires Améliorer la performance et la qualité du processus crédit 👉 Mission stratégique au cœur de la transformation digitale des activités de financement corporate.
Mission freelance
Business Analyst/Proxy Product Owner
Byrongroup
Publiée le
Business Analyst
JSON
SQL
1 an
500-620 €
Île-de-France, France
🎯 Au sein d'une équipe transverse, en charge de valider l'ensemble des systèmes d'information, des compteurs communicants jusqu'aux SI partenaires, vos missions seront les suivantes : • Recueil et formalisation des besoins • Rédaction de l'expression de besoin et traduction en User stories • Animation de workshops avec les équipes métiers • Conception et maquettage de solutions • Analyse des impacts • Gestion et priorisation du backlog • Pré-recettage • Pilotage de la qualité et du reporting • Coordination et suivi du planning
Offre d'emploi
Senior Smart Automation Developer (Dataiku / Agentic AI) H/F
SMARTPOINT
Publiée le
AWS Cloud
Azure
Dataiku
12 mois
60k-70k €
600-700 €
Île-de-France, France
Dans le cadre d'un projet de développement des capacités en Smart Automation & Agentic AI , notre client renforce son équipe avec un Senior Smart Automation Developer . Son ambition : concevoir des automatisations intelligentes capables d’orchestrer les données, les systèmes applicatifs et les agents IA , afin d’optimiser et transformer les processus métiers. Vous interviendrez sur des projets innovants basés sur la plateforme Dataiku et ses capacités LLM Mesh , au cœur des enjeux d’IA générative et d’automatisation avancée.
Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud
1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration
12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Mission freelance
Cloud Sec Ops Engineer
Cherry Pick
Publiée le
CI/CD
Google Cloud Platform (GCP)
Terraform
12 mois
570-620 €
Paris, France
Objectifs et livrables Vous excellerez et vous épanouirez dans cette mission si vous êtes prêt à... Etre garant/leader des sujets sécurité du cloud : design, architecture, implémentation, durcissement, bonnes pratiques et reporting. Intervenir au niveau du socle et des cloud architect, pour prendre en charge et piloter les sujets sécurité Accompagner les différentes équipes consommatrices du Cloud sur leurs besoins et problématiques sécurité Définir et améliorer les standards de sécurité Cloud, participer aux démarches de conformité Automatiser les contrôles de sécurité (audits de configuration, alerting, monitoring, remédiation, reporting) Industrialiser les contrôles via IaC, pipelines CI/CD et outils DevSecOps Concevoir des outils et scripts pour renforcer les opérations SecOps. Exploiter des solutions variées et innovantes pour une visibilité et un contrôle continu des risques Cloud Analyser les risques de sécurité, identifier les impacts associés et proposer des plans d'actions adaptés et collaborer à leur mise en œuvre Participer activement à la gestion des incidents de sécurité liés Cloud Assurer la veille sur les nouvelles technos autour de la sécurité et du cloud computing Contribuer à l’intégration sécurisée de l’IA dans le SI Profil recherché : Une expérience confirmée sur Google Cloud Platform (une expérience supplémentaire sur Azure est un plus) Une certification Google Cloud Architect ou Security Engineer (un atout) Une très bonne maîtrise de Terraform et des pratiques IaC. Une expérience des outils d’automatisation, de CI/CD et de gestion de code source (Git, GitHub, Bitbucket) Une bonne compréhension des concepts et technologies sécuritaires : VPC, firewall, IAM, cryptographie, WAF, secrets management, logging & monitoring Une expérience (ou forte appétence) sur les solutions CSPM (Wiz, Prisma Cloud, Defender for Cloud, etc.) pour la gestion des risques Cloud Une familiarité avec des outils SAST (SonarQube, Checkmarx, Snyk Code, etc.) constitue un atout dans un contexte DevSecOps. Des connaissances en technologies Web (HTTPS, REST, CDN, Load Balancing) Une bonne maîtrise des OS Linux/Unix et des langages Bash/PowerShell/Python Une bonne connaissance du Secret Management (Google Secrets Manager, Azure Key Vault) Une bonne maîtrise de la conteneurisation (Docker) et des plateformes orchestrées (Kubernetes, GKE, AKS)
Mission freelance
Data Engineer GCP - Anglais niveau C1
ALLEGIS GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform
18 mois
470-520 €
Paris, France
Intégrer une mission au sein de notre client en tant que Data Engineer GCP. Missions : Créer de nouveaux projets et produits de données sur GCP au sein du sous-domaine Finance Procurement . Participer au développement back‑end sur GCP et, pour certains cas d’usage, créer également le modèle sémantique Power BI . Intégration au sein d’une sous‑équipe de 4 data engineers dans une équipe Finance de 10 personnes au total. 70 % du temps consacré à l’innovation et aux nouveaux projets sur GCP. 30 % du temps dédié à la continuité et à la maintenance.
Offre d'emploi
Administrateur SIEM - F/H
AIS
Publiée le
1 mois
32k-36k €
180-360 €
Nantes, Pays de la Loire
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grand compte, vos missions seront les suivantes : - Amélioration de la surveillance du SI sur de nouveaux périmètres du datacenter en cohérence avec les menaces cybersécurité en cours et/ou les évolutions de notre SI - Conception et la mise en oeuvre de règles de détection dans le SIEM ainsi que la documentation d'investigation associée - Veille cybersécurité avec les responsables techniques concernés sur les périmètres particuliers suivants : Hyperviseurs, stockage, sauvegarde, ordonnancement, appliances, Nutanix.... - Préparer, coordonner et élaborer le bilan de pentests de validation de la détection en place sur ses périmètres - Participer en heures ouvrées à l'analyse et la réaction sur les évènements/Incidents sécurité du SOC DSIBA - Définir les évènements à journaliser et le format nécessaire - Construire les scénarios de détection dans le SIEM et les mettre en exploitation - Faire tester le bon fonctionnement des scénarios et établir un cahier de test régulier Environnement technique : - VCenter - HMC - AHV - NetApp - Netbackup - IWS - Linux, AIX - Cisco, Palo Alto
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Offre fictifs et offre non sérieuses
- Retour d'expérience démission-reconversion
- Vue CV
1475 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois