Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 584 résultats.
Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio
3 ans
Paris, France
Télétravail partiel
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
DataOps - MS FABRIC/ Azure
Publiée le
.NET
.NET Framework
AWS Cloud
12 mois
500-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.
Mission freelance
Consultant PAM - Bastion - CyberArk (H/F)
Publiée le
Active Directory
Active Directory Domain Services (AD DS)
Ansible
12 mois
400-600 €
Île-de-France, France
Télétravail partiel
Pour l'un de nos clients grand compte situé en Ile-de-France, dans le cadre d'une mission de longue durée permettant du télétravail, nous recherchons un Consultant Cyberark - PAM - Bastions (H/F) 🎯 Objectif de la mission Renforcer l’équipe en charge de la gestion des accès à privilèges (PAM) en assurant l’intégration, le suivi et l’optimisation des usages CyberArk, tout en garantissant le respect des bonnes pratiques de sécurité. 🔧 Responsabilités principales - Recueillir et challenger les besoins des équipes d’administration SI. - Décliner opérationnellement les usages dans CyberArk. - Assurer le suivi du bon fonctionnement des cas d’utilisation. - Proposer des axes d’amélioration (processus, procédures, documentation). - Gérer les demandes et incidents de niveau 3 (escalade d’un CDS). - Effectuer les corrections de vulnérabilités. - Développer des scripts et automatisations (Powershell, Python, Ansible). - Maintenir les infrastructures PAM en conditions opérationnelles et sécurisées. - Contribuer aux projets liés à la conformité réglementaire. - Rédiger la documentation et assurer le transfert de compétences. 📄 Livrables attendus - Dossiers techniques et demandes de changement. - Traitement de tickets (incidents/demandes). - Comptes rendus d’ateliers et réunions. - Mise à jour de la documentation (Wiki). - Suivi dans Planner / JIRA. - Tableaux de bord et plans de test. 🧑💻 Compétences et profil recherché - Formation : Bac +5 (école d’ingénieur / M2), idéalement spécialisé en cybersécurité. - Expertise PAM : connaissances approfondies (CyberArk, Wallix, Teleport…). Certification appréciée. Savoir-faire technique : - Gestion des accès à privilèges et bastions. - Cycle de vie des accès et coffres-forts. - Manipulation d’annuaires (AD, LDAP). - Automatisation (Powershell, Python, Ansible). - Conception & mise en œuvre de solutions PAM conformes aux politiques de sécurité. - Méthodologie : gestion d’incidents/demandes (ITSM), animation d’ateliers, travail en mode Agile (JIRA, sprints, PI-Planning). - Langues : anglais technique.
Offre d'emploi
Ingénieur DevOps / Cloud OpenStack – Infrastructure & Automatisation
Publiée le
Ansible
Bash
CentOS
1 an
Île-de-France, France
Télétravail partiel
Nous recherchons un Ingénieur DevOps / Cloud expérimenté , spécialiste OpenStack , pour rejoindre notre équipe infrastructure et participer à la conception, l’optimisation et l’automatisation de nos environnements cloud et on-premise. Vos missions principales : Gérer et maintenir les environnements OpenStack , y compris la configuration, le tuning et la supervision des ressources. Déployer, automatiser et administrer les infrastructures virtualisées (VMware, VMs Linux/Windows). Industrialiser les processus via Ansible, Terraform, GitLab CI/CD, Jenkins . Assurer le support niveau 2/3 et résoudre les incidents liés aux systèmes et au cloud. Participer à la migration et à l’évolution des plateformes cloud , en garantissant la haute disponibilité, la sécurité et les bonnes pratiques opérationnelles. Travailler sur des projets multi-clients et proposer des solutions adaptées aux besoins métiers. Documenter les procédures techniques et rédiger les guides pour l’équipe et les utilisateurs.
Offre premium
Mission freelance
Ingénieur Observabilité – Expert Zabbix
Publiée le
Zabbix
3 mois
Paris, France
Télétravail partiel
Contexte Vous interviendrez au sein d’une équipe dédiée à la supervision et à l’observabilité pour renforcer et optimiser les solutions de monitoring basées sur Zabbix (v6/v7). Votre mission consistera à concevoir, intégrer et faire évoluer la plateforme, tout en assurant son interconnexion avec les outils ITSM (ServiceNow, GLPI…) et les référentiels (CMDB/CMS). Vous participerez également à l’automatisation des processus et à la veille technologique sur les solutions d’observabilité. Descriptif de la mission Vos principales responsabilités seront : Administration et optimisation de Zabbix : Installation, configuration et maintenance des environnements Zabbix 6/7 (serveurs, agents, proxies, bases de données). Mise à jour (upgrade) des versions et tuning des performances. Conception technique et intégration : Rédaction de dossiers d’architecture (DAT, HLD, LLD) pour les solutions de supervision. Intégration de Zabbix avec des outils ITSM (ServiceNow, GLPI, EasyVista…) et CMDB/CMS. Développement de scripts (Bash, Python) et d’automatisations via les API Zabbix. Collaboration et support : Animation d’ateliers techniques et rédaction de livrables (comptes-rendus, présentations). Accompagnement des équipes projets et production dans la définition des besoins de supervision. Veille active sur les outils d’observabilité (Prometheus, Grafana, Elastic Stack…). Profil recherché Expertise confirmée sur Zabbix (v6/v7) : Maîtrise de l’installation, la configuration, le troubleshooting et l’optimisation. Création de templates, dashboards et alertes personnalisées. Connaissance des bases de données associées (MySQL/MariaDB, PostgreSQL, TimescaleDB). Environnements systèmes et scripting : Expérience sur Linux (Debian, RedHat, CentOS, Ubuntu). Maîtrise des langages Bash/Shell et Python. Développement de connecteurs ou scripts d’intégration (REST API, Webhooks). Observabilité et intégrations : Connaissance souhaitée des outils complémentaires (Prometheus, Grafana, Telegraf, InfluxDB, Elastic Stack).
Offre d'emploi
Business Analyst Data (Business Analyst Data – Talend / MSBI / SQL)
Publiée le
Agile Scrum
Microsoft Excel
Microsoft Power BI
8 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement d’une squad Data, nous recherchons un Business Analyst Data disposant d’un background technique solide et d’une bonne compréhension des enjeux Data. L’objectif est de jouer un rôle d’interface entre les équipes métier et techniques : comprendre, formaliser et prioriser les besoins tout en étant capable de challenger et dégrossir les aspects techniques Data Engineering. Missions principales Recueillir, analyser et challenger les besoins utilisateurs en matière de données. Formaliser les spécifications fonctionnelles et assurer la traçabilité des besoins. Travailler en étroite collaboration avec le PO de la squad pour assurer le delivery. Être un relais avec les équipes métier (PO côté business, utilisateurs). Contribuer à la clarification et à la simplification des sujets Data Engineering. Participer aux cérémonies agiles de l’équipe (daily, refinements, reviews, etc.). S’assurer que les solutions livrées répondent aux attentes métier et sont alignées avec les bonnes pratiques Data.
Offre d'emploi
DevOps – Data & BI
Publiée le
CI/CD
DevOps
GitLab CI
5 mois
42k-46k €
450-550 €
Île-de-France, France
Télétravail partiel
Objectif de la mission Renforcer l’équipe en charge d’une plateforme de visualisation et de traitement de données internes. Le consultant DevOps interviendra sur la conception, le développement, l’automatisation et le maintien en condition opérationnelle des moyens de déploiement, tout en assurant la surveillance et la gestion des composants de la plateforme BI. Responsabilités principales Concevoir et maintenir des pipelines de déploiement automatisés (CI/CD). Développer et maintenir des scripts (PowerShell, Python) pour automatiser les tâches de déploiement, monitoring et gestion des environnements. Surveiller la disponibilité et la performance des services (SQL Server, SSAS, Power BI). Gérer la configuration, la mise à jour et le suivi des composants techniques. Contribuer à l’amélioration continue des pratiques DevOps et des outils associés. Collaborer avec les équipes de développement, BI et infrastructure pour assurer la fluidité des déploiements et le respect des standards qualité.
Offre d'emploi
Cloud Migration Partner
Publiée le
Amazon S3
Ansible
Bash
5 mois
Île-de-France, France
Télétravail partiel
Objectif de la mission Dans le cadre d’un programme de transformation vers le cloud de confiance, le Cloud Migration Partner jouera un rôle clé dans la définition de stratégies de migration, l’analyse des applications existantes, et la conception des architectures cibles cloud-native. L’objectif est de faciliter l’adoption du cloud en intégrant les meilleures pratiques DevOps, CI/CD et de modernisation logicielle. Responsabilités principales Réaliser des audits techniques des applications existantes (code source, infrastructure, flux de données, stockage, dépendances). Lire et analyser du code fullstack (Java, Python, JavaScript, SQL…) afin d’identifier les patterns techniques et les difficultés de migration. Identifier les obstacles potentiels et proposer des stratégies de migration adaptées (6Rs : Rehost, Refactor, Replatform, etc.). Co-concevoir les architectures cibles sur GCP/S3NS en collaboration avec les équipes produit, infrastructure et sécurité. Intégrer les bonnes pratiques CI/CD dans les recommandations de migration (Git, pipelines, tests automatisés). Produire une documentation claire et structurée (évaluations techniques, roadmaps de migration, architectures cibles). Accompagner et former les équipes IT à l’adoption des outils et pratiques cloud-native.
Mission freelance
DevOps Senior AWS - Terraform
Publiée le
Agile Scrum
Ansible
AWS Cloud
12 mois
480-550 €
Puteaux, Île-de-France
Télétravail partiel
Dans le cadre de la modernisation et de l’industrialisation de la plateforme Cloud, nous recherchons un Ingénieur Cloud/DevOps Senior pour renforcer l’équipe en charge des infrastructures et des pipelines CI/CD. Le consultant interviendra sur un environnement AWS complexe (multi-accounts, data, sécurité) et contribuera à l’automatisation, la fiabilisation et l’optimisation des plateformes et des déploiements. 🛠️ Missions principales Infrastructure as Code (Terraform) : conception et industrialisation de modules (VPC, IAM, ALB, RDS, EKS, etc.). Kubernetes (EKS) : déploiement, upgrade, gestion des policies de sécurité (OPA, PSP, NetworkPolicies). CI/CD & DevOps : refonte et standardisation des pipelines (GitLab CI / GitHub Actions / Jenkins), intégration de contrôles qualité (SonarQube, scanners de sécurité, secrets management). Sécurité et conformité : intégration Vault, durcissement des images, scans supply chain (Nexus/Harbor, Trivy, tfsec, Checkov). Observabilité & SRE : mise en place et optimisation de la supervision (Prometheus, Grafana, OpenTelemetry, Datadog/Dynatrace), suivi de SLOs et FinOps. Support et expertise : accompagnement des équipes projets, définition des bonnes pratiques, contribution à la culture DevOps/SRE. ✅ Compétences recherchées Techniques : Cloud : AWS (EC2, S3, RDS, EKS, Lambda, IAM, Route53, etc.) IaC : Terraform (modules réutilisables, best practices), Ansible Conteneurisation & Orchestration : Kubernetes (EKS, Helm, Istio, OpenShift) , Docker CI/CD : GitLab CI, GitHub Actions, Jenkins, ArgoCD, GitOps Sécurité : Vault, scanners de vulnérabilités, durcissement images, tagging et gouvernance AWS Observabilité : Prometheus, Grafana, Loki, OpenTelemetry, Datadog, Dynatrace Langages : Python, Bash, Go (un plus) Soft skills : Capacité à travailler en environnement Agile (Scrum/SAFe). Proactivité, force de proposition et autonomie. Bon relationnel pour accompagner et former les équipes. 🎓 Certifications appréciées AWS Solutions Architect / DevOps Engineer / Security Specialty Certified Kubernetes Administrator (CKA) / Application Developer (CKAD) HashiCorp Terraform Associate
Offre d'emploi
Data engineer H/F
Publiée le
BigQuery
Data Lake
Data Warehouse
Lille, Hauts-de-France
🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance
Mission freelance
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)
Publiée le
Azure Data Factory
Azure DevOps
BI
12 mois
500-560 €
Île-de-France, France
Télétravail partiel
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.
Mission freelance
SRE DevOps AWS
Publiée le
API
AWS Cloud
CI/CD
3 ans
500-550 €
Paris, France
Télétravail partiel
Le rôle le plus important du SRE AWS est de maintenir les standards et la qualité de service de l’infrastructure AWS. Grâce à ses excellentes compétences et à son expertise, le SRE peut fournir un leadership et un soutien technique en matière d’architecture, de sécurité, de bases de données, de DevOps, de Bigdata, etc . Vous aurez pour principales missions : Être responsable de la plateforme AWS et participer aux évolutions futures Assurer la stabilité, la fiabilité et la performance des applications Soutenir les développeurs et aider à concevoir conjointement les services applicatifs Développer et maintenir notre pipeline de déploiement et CI/CD Contribuer aux discussions techniques sur l’intégration de nouvelles ressources ou standards Améliorer constamment les processus et communiquer les normes et les bonnes pratiques de notre plateforme AWS Participer à l’évolution des outils transverses Être capable de prendre du recul sur les besoins de l’équipe et de faire le lien avec la gouvernance pour mettre en place des solutions globales plutôt que des solutions spécifiques.
Offre premium
Mission freelance
développeur dbt
Publiée le
DBT
12 mois
330-500 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Dans le cadre de la maintenance et des évolutions de notre produit BI, dans un contexte international, vous serez notamment amené à : Participer activement au développement et à la maintenance du produit : o Création de la structure des objets de base de données o Analyse/création/modification des scripts d’alimentation ou de restitution avec python/dbt Maintenir et faire évoluer l’environnement DBT Garantir la cohérence d’ensemble des développements ELT Mettre à jour la documentation techniques Veiller à minimiser la dette technique, à optimiser et fiabiliser l’architecture existante Mise en place de tests automatisés avec l’équipe de test en Pologne Analyser les besoins métiers des différents projets Travailler en étroite collaboration avec le reste de l’équipe data (Paris + Budapest), l’équipe de test basée à Varsovie et l’équipe de support basée à Riga Livrables Mission en régie, livrables en fonction des user stories développées.
Mission freelance
Développeur Back-end API
Publiée le
API
API REST
AWS Cloudwatch
6 mois
290-320 €
Nice, Provence-Alpes-Côte d'Azur
Télétravail 100%
Mission / Freelance / France / Remote / Développeur Back-End / API / E-commerce / Intégrations / Amazon / Salesforce / Shopify / PHP / REST / GraphQL / Architecture / Documentation Contexte Notre client recherche un Développeur Back-End API pour renforcer son équipe IT et soutenir sa forte croissance. Engagée dans l’innovation et la qualité, la marque accompagne ses clients dans leur quête de confiance et de bien-être. Contrat : Freelance Durée : 6 mois Démarrage : ASAP Localisation : Full remote Vos missions Intégré(e) au sein de l’équipe informatique, vous jouerez un rôle clé dans la fluidité et la fiabilité des échanges entre les systèmes internes et les différentes plateformes (Amazon, Salesforce, Shopify, ERP…). À ce titre, vos principales responsabilités seront de : Concevoir, développer et maintenir les intégrations API internes et externes. Définir et mettre en place une architecture d’intégration moderne (event-driven, queues, webhooks). Mettre en place et superviser le monitoring des échanges (erreurs, latence, quotas API). Rédiger et maintenir la documentation technique (Swagger/OpenAPI, diagrammes). Optimiser la performance et la fiabilité des flux de données. Collaborer avec l’équipe IT et anticiper les futurs besoins d’intégration. Profil recherché 3+ ans d’expérience en développement back-end, avec une expertise confirmée en intégration API (REST / GraphQL). Bonne maîtrise des architectures d’intégration modernes (pub/sub, event-driven, message queues). Expérience avérée sur Amazon Selling Partner API ou intégrations e-commerce comparables (Shopify, Salesforce, ERP…). Maîtrise de PHP appréciée ; ouverture aux profils maîtrisant Node.js, Python ou Java. Expérience en monitoring et supervision (Prometheus, Grafana, Datadog, AWS CloudWatch). Rigueur dans la documentation technique et bonnes pratiques de développement. Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy).
Offre d'emploi
DevOps / Administration et MCO de la production
Publiée le
Ansible
Bash
Control-M
1 an
40k-47k €
200-390 €
Paris, France
Télétravail partiel
Nous sommes à la recherche d'un(e) ingénieur(e) de production pour rejoindre notre service Production Data Métiers. Notre équipe dynamique et jeune, forte de 13 membres, est à la recherche d'un(e) successeur(e) passionné(e) et expérimenté(e) pour renforcer notre effectif. Le(a) candidat(e) idéal(e) aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur le cloud public avec des bases solides en DevOps. Avoir des compétences sur Google Cloud Platform (GCP) sera fortement apprécié. Les principales missions qui vous seront confiées : - Surveillance et maintenance : Assurer la surveillance et la maintenance de notre service de production afin de garantir sa performance et sa disponibilité. - Conception et optimisation : Concevoir, mettre en place et optimiser les pipelines pour améliorer l'efficacité de notre travail. - Automatisation des processus : Automatiser les processus de déploiement et industrialiser les livraisons des infrastructures pour renforcer la fiabilité et la rapidité. - Documentation : Rédiger et maintenir la documentation des processus et des systèmes mis en place pour assurer la traçabilité et la réversibilité.
Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)
Publiée le
Agile Scrum
Angular
Apache Kafka
12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
584 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois