L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 424 résultats.
Offre d'emploi
Lead tech java FS
Publiée le
J2EE / Java EE
30k-43k €
Vannes, Bretagne
Télétravail partiel
Le poste est basé à Vannes avec une présence minimale de 3 jours par semaine sur site . Rejoignez une squad (développeurs, BA, PO, Scrum Master) en charge des moyens de paiement pour commerçants : TPE, paiements de proximité et distants. Responsabilités principales Encadrer techniquement l'équipe de développement (revues de code, standards, mentoring). Concevoir et développer des fonctionnalités robustes, évolutives et performantes. Valider la qualité du code (revues, CI/CD, performance, sécurité). Collaborer avec les analystes/PO sur la phase UX/UI en cours pour traduire les maquettes en solutions techniques optimales. Mettre en place et maintenir les pipelines CI/CD (GitLab CI). Automatiser l'infrastructure via Terraform (provisioning AWS). Participer à la configuration de Quicksight pour la visualisation des données métiers. Travailler en agile avec le pilote programme, analystes et PO dans une logique produit. Stack technique Back-end : Java 11-21, Spring/SpringBoot, REST, Open API, OAuth2, JWT, AWS (API Gateway, Lambda, S3, ECS, Cloudwatch), Maven, Docker, Terraform, SQL Server/PostgreSQL (AWS RDS). Front-end : Typescript, Angular (Reactive forms, DI, Services, Data sharing, RxJs operators). Profil du candidat Profil recherché Compétences techniques obligatoires Expérience significative Java/Angular (>7 ans). Maîtrise GitLab CI, Terraform, environnements AWS. Connaissances solides SQL. Qualités humaines clés Écoute, bienveillance, tact pour s'intégrer au collectif existant. Autonomie, proactivité, curiosité. Sens du relationnel collaboratif et consensuel en équipe pluridisciplinaire. Localisation : Vannes, 3 jours/semaine minimum.
Mission freelance
Data Scientist IA Générative (LLM)
Publiée le
Data science
Django
IA Générative
12 mois
550-580 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Nous recherchons un Data Scientist Senior pour intervenir sur des projets avancés autour de l’ IA générative et des LLM , en lien étroit avec les équipes techniques et produit. Responsabilités : Conception et optimisation de pipelines IA basés sur des LLM Développement de solutions de type RAG , agents et chaînes de raisonnement Utilisation de LangChain et LangGraph pour orchestrer les modèles Analyse et exploitation de données textuelles Évaluation des performances des modèles (qualité, biais, robustesse) Contribution aux choix d’architecture IA Stack technique : Python 3 Django (pour intégration applicative) LangChain LangGraph LLM & IA générative (embeddings, prompts, fine-tuning, RAG) Profil recherché : Expérience confirmée en Data Science / IA Forte appétence pour les LLM et l’IA générative Solide maîtrise de Python et des problématiques NLP Capacité à travailler sur des sujets complexes et exploratoires
Offre d'emploi
Architecte Data & IA H/F
Publiée le
75k-90k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : g2fqzc6m6z
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
[SCH] Développeur - CRM EFFICY - 1128
Publiée le
10 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Le Développeur CRM aura en charge le développement, l’intégration et la mise en œuvre technique de la solution e-Deal CRM 2024 (Efficy), conformément aux besoins métiers définis et validés par le Chef de projet SI. Missions principales : -Développer & paramétrer le CRM e-Deal / Efficy : écrans, formulaires, règles métier, workflows. -Créer et maintenir les interfaces / API / web services avec ERP, référentiels, outils métiers. -Gérer les flux de données & migrations (ETL, qualité, traçabilité). -Administrer les environnements techniques (dev, recette, prod) & participer aux déploiements (CI/CD si possible). -Documenter les devs & accompagner les équipes internes (RUN / exploitation). Objectifs & livrables : -Assurer l’intégration technique de la solution Efficy dans le SI. -Garantir la qualité, la performance et la sécurité des flux et développements. -Mettre en place des déploiements maîtrisés (potentiellement CI/CD). -Documenter l’architecture, les interfaces et les procédures techniques. -Accompagner les équipes internes sur la prise en main du socle CRM. Profil recherché : -Développeur / Intégrateur CRM confirmé (3–8 ans). -Expérience sur un projet d’intégration ou de déploiement CRM en contexte SI complexe. -À l’aise en collaboration transverse (DSI, métiers, éditeur, intégrateurs). -Capable de documenter, structurer et transmettre ses connaissances.
Offre d'emploi
Data Engineer (H/F)
Publiée le
Big Data
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Mission freelance
Coordinateur Anomalies & Tests RUN SI
Publiée le
JIRA
Microsoft Power BI
Run
18 mois
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Test Lead Spécialités technologiques : BI, Reporting Dans le cadre du RUN d’un nouveau Système d’Information complexe, la mission vise à renforcer la tour de contrôle opérationnelle par un rôle dédié au suivi, à l’analyse et à la coordination du traitement des anomalies et incidents, en lien étroit avec les équipes de tests, de production et les responsables de chantiers. Cette mission n’est pas une mission PMO. Elle est opérationnelle, fortement orientée qualité, incidents, remédiation et respect des plannings. MISSIONS - Garantir une prise en charge efficace et structurée des anomalies détectées en tests et en RUN. - Sécuriser les plannings de livraison via une maîtrise fine des incidents et de leurs impacts. - Assurer une coordination transverse fluide entre tests, production et responsables de chantiers. - Fournir une vision consolidée, fiable et actionnable de l’état des anomalies. Missions principales : - Pilotage et suivi des anomalies - Suivre l’ensemble des anomalies et incidents (création, qualification, priorisation). - Analyser : les incidents du jour, le stock d’anomalies, leur criticité et leur impact sur les livraisons. - Consolider les anomalies et indicateurs dans des outils de pilotage. - Coordination tests / production - Coordonner les activités de tests avec les équipes de production, en intégrant le fait qu’une anomalie peut émerger ou retomber en phase de test et inversement - Assurer la cohérence entre anomalies détectées et planning de livraison. Coordination avec les chefs de chantiers - S’assurer de la bonne prise en charge des anomalies par les équipes responsables. - Définir, suivre et relancer les plans de remédiation. - Organiser et animer des instances dédiées au suivi des anomalies. - Formaliser et diffuser les comptes rendus / PV. - Établir et suivre les délais de correction. Reporting & communication - Produire des tableaux de bord clairs et fiables. - Apporter une lecture synthétique et factuelle de la situation incidents/anomalies. - Contribuer à l’animation des communautés opérationnelles (niveau 2). Livrables attendus - Analyse quotidienne des incidents. - Analyse consolidée du stock d’anomalies. - Tableaux de bord de suivi (délais, criticité, avancement). - Comptes rendus des instances de coordination. - Suivi des plans de remédiation. Environnement technique & outils - Suivi des anomalies : Jira - Analyse & reporting : Excel (niveau avancé indispensable), Power BI - Supervision & performance : Dynatrace Expertise souhaitée - Profil confirmé en pilotage opérationnel RUN, incidents ou qualité SI. - Forte capacité d’analyse et de structuration de l’information. - Très bonne maîtrise d’Excel (outils puissants, consolidations complexes). - À l’aise dans des environnements SI complexes, nécessitant un fort investissement à la prise en main. - Excellent niveau de communication écrite et orale. Savoir-être clé : Très bon communicant, capable d’interagir avec des équipes fortement sollicitées. Personnalité affirmée, avec suffisamment de caractère pour : relancer, challenger, arbitrer, tout en restant constructive. Capacité à gérer la pression et les priorités concurrentes.
Mission freelance
Ingénieur Linux
Publiée le
Firewall
Linux
3 ans
400-550 €
Villiers-Saint-Frédéric, Île-de-France
Télétravail partiel
Objet de la prestation L’objet de la prestation consiste en l’expertise et le support technique de niveau 3 sur les environnements et technologies liés aux infrastructures Serveurs ; activité exercée au sein du Chapter "Server & Storage", dans la Direction DI-RICS (IT and Cloud Services) : • Administration du parc de Serveurs Linux (incl. Gestion des mécanismes de déploiement, de patching, de diffusion de scripts ou agents, qualification de nouvelles versions ou nouveaux produits…) • Administration des plateformes • Intégration et déploiement de solutions et d’outils sur les différentes plateformes (physiques ou virtuelles) hébergeant des solutions Linux • Automatisation des services • Prise en compte des contraintes liées à l’environnement dans lequel ces infrastructures sont intégrées, notamment les environnements DMZ (avec hardened OS) • Gestion des maps ACLs à fournir à l’équipe en charge des FireWall • Mise en place des best practices liées à l’administration des environnements, ainsi qu’à l’automatisation et à la sécurité • Coopération avec les équipes offshore/Inde (RNTBCI L3, Accenture L3, Accenture L2) • Gestions des incidents escaladés au L3 Livrables • Schémas d’architecture technique • Scripts divers (essentiellement autour de la gestion du parc et de l’automatisation) • Procédures • Documents d’administration (voire d’exploitation)
Mission freelance
Développeur sénior Java (H/F)
Publiée le
Entreprise Java Bean (EJB)
Gitlab
2 ans
100-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur sénior Java (H/F) à Lille, France. Les missions attendues par le Développeur sénior Java (H/F) : Nous recherchons un développeur backend pour nous accompagner pour de la MCO/TME une participation aux différents projets de l'entreprise. Compétence requise : Plateforme technique Mirakl => Api, interface Tiktok shop=> Api, interface Veepee Brands place => Api, interface Cdiscount => Api, interface Ebay => Api , interface Octopia => Api , interface Java 21 Spring boot Kafka Mongo Agent IA CI Gitlab
Mission freelance
DÉVELOPPEUR BACKEND Kotlin / Spring Boot / AWS
Publiée le
AWS Cloud
12 mois
450 €
Longpont, Hauts-de-France
Télétravail partiel
CONTEXTE Dans le cadre de la création d’un nouvel outil backend cloud-native, nous constituons une squad backend de 4 développeurs (1 senior, 3 profils mid/junior). L’équipe est chargée de concevoir, développer et déployer une plateforme scalable, observable et sécurisée, intégrée à l’écosystème AWS. L’objectif est de livrer une première version robuste en 3 à 4 mois, avec des standards élevés de qualité, de maintenabilité et de sécurité. Vous intervenez au sein d’une équipe pluridisciplinaire composée de : 1 Architecte 1 DevOps 1 Product Owner 4 Développeurs Backend MISSIONS PRINCIPALES Conception et développement Concevoir et développer un orchestrateur et des APIs backend en Java 21 / Kotlin avec Spring Boot Implémenter une architecture cloud-native orientée microservices Développer et maintenir des services AWS Serverless (Lambda) en TypeScript, Python ou Go Assurer la gestion de la persistance des données via AWS RDS (modélisation, performances, sécurité) Participer à la mise en place et à l’exploitation des flux ETL via AWS Glue Cloud et infrastructure Déployer et exploiter les applications sur un cluster Kubernetes Configurer, maintenir et améliorer les pipelines CI/CD via GitLab Contribuer aux choix d’architecture (scalabilité, résilience, optimisation des coûts) Observabilité et reporting Mettre en place la collecte, l’analyse et l’exploitation des logs via la stack ELK (Elasticsearch, Logstash, Kibana) Intégrer et exploiter Datadog pour le monitoring applicatif et l’alerting Contribuer à la conception et à l’alimentation des dashboards de suivi et de reporting Qualité et collaboration Écrire un code propre, maintenable, testé (tests unitaires) et documenté Participer activement aux revues de code et aux décisions techniques Documenter les choix techniques et fonctionnels dans Confluence Travailler en méthodologie agile (Scrum / Kanban) avec Jira SPÉCIFICITÉS SELON LE NIVEAU Développeur Senior Forte capacité à prendre des décisions techniques et à challenger les choix d’architecture Excellente communication orale et écrite pour échanger avec les parties prenantes (PO, architecte, DevOps) Capacité à accompagner et faire monter en compétences les profils mid/junior Développeur Mid / Junior Participation active au développement et à la qualité du code Montée en compétences progressive sur l’architecture, le cloud AWS et les bonnes pratiques backend ENVIRONNEMENT TECHNIQUE Langages : Kotlin, Java 21, TypeScript, Python, Go Framework : Spring Boot Cloud : AWS (Lambda, RDS, Glue) Conteneurisation / Orchestration : Kubernetes CI/CD : GitLab Observabilité : ELK, Datadog Méthodologie : Agile (Scrum / Kanban) Outils collaboratifs : Jira, Confluence
Offre premium
Offre d'emploi
INGENIEUR SYSTEME LINUX STOCKAGE
Publiée le
DevOps
NetApp
Python
1 an
48k-56k €
450-550 €
Antibes, Provence-Alpes-Côte d'Azur
Télétravail partiel
POSTE DE TRAVAIL BASE DANS LE SUD EST DE LA FRANCE Dans le cadre du maintien en conditions opérationnelles des infrastructures de nos clients, nous recherchons un profil hybride capable d’intervenir ponctuellement sur la partie stockage (PureStorage & NetApp), notamment en cas de crise ou d’incident majeur, tout en étant opérationnel sur d’autres périmètres techniques (Linux, Scripting, DevOps) lorsque l’activité stockage est moins soutenue. - Assurer la gestion, l’administration et le support niveau 2/3 des environnements de stockage (PureStorage & NetApp). - Intervenir sur les incidents critiques ou les crises impactant les infrastructures de stockage - Contribuer à l’industrialisation et à l’automatisation des opérations (scripts, Ansible, GitLab CI/CD, etc.). - Participer à la supervision et à la documentation des infrastructures. - Effectuer une veille technologique et proposer des améliorations continues - Collaborer avec les équipes Linux, Réseau et Cloud pour la résolution d’incidents Il est attendu ici un profil hybride avec un niveau confirmé sur Stockage PureStorage & NetApp ainsi que sur Linux & Ansible.
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Offre d'emploi
Data Engineer AWS
Publiée le
Amazon S3
AWS Cloud
AWS Glue
40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Offre d'emploi
Data architect senior H/F
Publiée le
50k-60k €
Strasbourg, Grand Est
Télétravail partiel
Au sein de la DSI, vous intégrez une équipe pluridisciplinaire et jouez un rôle stratégique dans la définition, la structuration et l'évolution des architectures data. Vous êtes garant de la cohérence, de la performance et de la sécurité des systèmes de données. Concevoir et faire évoluer l'architecture data globale (modélisation, flux, stockage, sécurité) Définir les standards et bonnes pratiques en matière de gouvernance des données Superviser la mise en place des pipelines de données (Databricks, Power Automate) Piloter la modélisation des bases de données SQL et NoSQL Collaborer avec les équipes métier et techniques pour aligner les besoins fonctionnels et les solutions data Assurer la qualité, la traçabilité et la fiabilité des données dans un environnement cloud Participer au suivi et à la maintenance de l'exploitation
Offre d'emploi
Expertise Fonctionnel Cyber Sécurité & Protection des Données
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
67k-76k €
660-670 €
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein d’une entité spécialisée dans la cybersécurité des données liées au Cloud, IA, Big Data et Blockchain. Votre rôle sera d’apporter une expertise avancée en sécurité pour accompagner les projets Gen-AI et garantir la conformité des usages des technologies Microsoft et des standards internationaux. Missions principales : Assurer l’assistance sécurité des projets et centres de compétences sur les sujets Gen-AI . Définir et mettre en œuvre des architectures sécurisées pour les technologies Microsoft (Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML). Produire des dossiers de sécurité : analyses de risques, recommandations, blueprints, normes et standards. Réaliser des revues de code et audits sécurité des composants logiciels. Participer à la définition des KPI de gouvernance , tableaux de bord et roadmap de sécurité AI. Contribuer à la rédaction des politiques d’usage des LLM et guidelines de sécurité. Assurer le reporting et la consolidation des exigences sécurité pour les projets France et International.
Mission freelance
Développeur Senior Grid Computing & Cloud – HPC / Pricing (H/F)
Publiée le
Bash
C/C++
Calcul hautes performances (HPC)
1 an
550-710 €
Île-de-France, France
Nous recherchons un Développeur Senior expérimenté en calcul distribué, HPC et Cloud , pour intervenir au sein d’une équipe en charge des moteurs de calcul utilisés pour valoriser des produits dérivés complexes via des méthodes numériques avancées (dont Monte Carlo). Vous rejoindrez une équipe pluridisciplinaire en charge de la maintenance, de l’optimisation et de l’évolution des solutions de distribution de calcul utilisées dans un environnement critique, fortement orienté performance et fiabilité. Vous participerez notamment à l’intégration d’un nouveau moteur open-source (ArmoniK), en lien direct avec les IT Quants et l’éditeur. Missions principales : 🔹 Intégration & migration Accompagner les IT Quants dans la migration de leurs librairies de pricing de Datasynapse vers ArmoniK. Assurer le rôle d’intermédiaire technique entre l’éditeur et l’équipe interne. Participer à des Proof of Concept pour valider les migrations applicatives. 🔹 Développement & optimisation Contribuer au développement et à l’optimisation d’outils et pipelines de calcul distribués. Participer à des travaux R&D : GPU, parallélisation, optimisation mémoire, HPC. Maintenir et améliorer les composants Python/Shell/OpenShift/Sqlalchemy. 🔹 Support & production Assurer le support de niveau 3 sur les solutions critiques. Participer à la maintenance corrective et évolutive des moteurs de calcul. Contribuer à l’amélioration des processus DevOps et CI/CD.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4424 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois