L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 422 résultats.
Mission freelance
Founding Engineer TypeScript / Node.js / IA / LLM
Publiée le
AWS Cloud
Large Language Model (LLM)
Node.js
12 mois
Paris, France
Contexte de la mission Un client confidentiel du secteur transport/logistique, financé par des fonds d’investissement de premier plan, lance un projet stratégique visant à révolutionner la gestion du transport routier à l’aide d’agents d’intelligence artificielle. Dans ce cadre, l’entreprise recherche un Founding Engineer spécialisé en TypeScript / Node.js et IA pour rejoindre une équipe technique restreinte composée du CTO et de trois développeurs confirmés. La mission se déroule entièrement en présentiel afin de favoriser la co-construction rapide du produit et des itérations techniques rapprochées. Objectifs et responsabilités Le consultant interviendra sur la conception et la mise en place du socle technique du produit, incluant : • Concevoir, développer et déployer des APIs robustes et scalables • Structurer les flux de données provenant de systèmes TMS, appels, messages et autres sources • Collaborer étroitement avec le CTO et les utilisateurs opérationnels pour la construction du MVP • Participer au lancement d’un projet innovant d’IA temps réel (audio) • Assurer un rôle majeur sur le backend, la data et l’ingénierie IA • Mettre en place l’observabilité : monitoring, logs, métriques et alerting • Contribuer aux choix d’architecture, arbitrages techniques et discussions produits • Participer au déploiement, aux tests et aux itérations rapides en environnement startup Profil recherché Compétences indispensables • Ingénieur fullstack avec forte orientation backend et data • Minimum 4 ans d’expérience significative sur Node.js et TypeScript • Forte expertise Backend et Data Engineering • Expérience avérée dans un environnement startup, scale-up, licorne ou rôle de Founding Engineer • Avoir déjà lancé un produit from scratch • Niveau attendu : Staff Engineer ou Principal Engineer • Capacité à raisonner en approche “problème → solution” • Grande rapidité d’itération : tester, ajuster, apprendre, recommencer • Capacité à échanger directement avec les utilisateurs métier (transporteurs, brokers) • Connaissance pratique des LLM et de l’IA appliquée • Flexibilité sur les horaires lors des phases de mise en production (soir, week-end si nécessaire) Compétences appréciées (bonus) • Expérience en IA agentique (agents autonomes) • Connaissances poussées en prompting, grounding, fallback, monitoring IA • Amélioration des performances d’agents en production • Contribution à l’architecture produit à grande échelle Stack technique actuelle • Node.js / TypeScript (backend principal) • Python (agents IA) • PostgreSQL • API REST, WebSocket • AWS (architecture scalable), Kubernetes
Mission freelance
Data engineer (H/F)
Publiée le
Dataiku
ELK
1 an
400-460 €
Châtillon, Île-de-France
Télétravail partiel
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN
Publiée le
Apache Hive
Apache Spark
Big Data
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform
Publiée le
AWS Cloud
DevOps
Linux
12 mois
600-650 €
Paris, France
Télétravail partiel
Mission L’équipe Platform Engineering du client est au cœur de la livraison de nos produits en fournissant une plateforme cloud fiable, sécurisée et scalable. En tant qu’Ingénieur DevOps (AWS/Terraform), votre mission est de concevoir, industrialiser et opérer la plateforme et les outils qui permettent aux équipes de construire, déployer et faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Tâches principales Dans cette mission d’Ingénieur Plateforme Cloud Data, vous aurez les responsabilités suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, data, edge) alignés avec des standards d’architecture robustes et les bonnes pratiques AWS. Faire évoluer une architecture multi-comptes (AWS Organizations, Control Tower/SCPs, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et scalable. Définir des blueprints d’infrastructure et d’applications (« golden paths ») pour des workloads conteneurisés (EKS/ECS/Fargate), serverless (Lambda) et traditionnels (EC2/ASG), incluant le réseau, l’observabilité et la sécurité. Construire et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), incluant les tests, le policy-as-code (OPA/Conftest), la sécurité (tfsec/Checkov) et l’automatisation des plans/apply (Atlantis/Spacelift/Terraform Cloud). Exploiter et renforcer la plateforme : supervision/alerting/logging/tracing (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog), définition des SLI/SLO, gestion de la capacité, sauvegardes et reprise après sinistre. Sécuriser l’environnement : IAM à privilèges minimaux, KMS, Secrets Manager, patching, gestion des secrets (SOPS), scan des IaC et des images. Gérer Terraform à grande échelle : state distant (S3 + verrouillage DynamoDB), stratégie de versioning, cycle de vie des modules, patterns multi-environnements, détection et remédiation du drift. Accompagner les équipes du client dans la migration des workloads on-premise vers AWS : évaluations, sélection des patterns, adoption de templates, outillage et coaching pour l’auto-service. Identifier et automatiser les tâches répétitives (outillage Bash/Python, automatisation Terraform ou copilotes IA) afin d’accélérer les déploiements et les migrations. Contribuer au support N2/N3, à la gestion des incidents et aux post-mortems ; produire une documentation claire et assurer le transfert de connaissances. Qualifications / Compétences requises Minimum 3 ans d’expérience en DevOps/SRE/Platform Engineering et au moins 2 ans d’expérience en production sur AWS. Diplôme Bachelor ou Master en Informatique/Ingénierie (ou équivalent). Excellente maîtrise de Terraform : conception de modules, providers, gestion du state, structuration et bonnes pratiques, tests et releases. Expertise approfondie AWS : VPC/Transit Gateway, IAM, EC2/ASG, EKS/ECS/Fargate, RDS, DynamoDB, S3, ALB/NLB, Route 53, Lambda, CloudWatch, Systems Manager, KMS, Organizations/Control Tower. Solides compétences Linux, réseaux (TCP/IP, DNS, TLS) et scripting (Bash) ; Python pour l’outillage et les intégrations. Fortes pratiques DevOps et expérience CI/CD ; Git, MR/revue de code. Conteneurs et orchestration (Docker, Kubernetes/EKS), packaging (Helm), registry et sécurité de la supply chain. Excellentes capacités de collaboration ; aptitude à traduire les besoins produit en solutions techniques simples, robustes et sécurisées. Bonus Expérience des méthodes agiles (Scrum/Kanban) et culture produit (roadmaps, discovery, boucles de feedback). Certifications appréciées : AWS Solutions Architect/DevOps Professional, HashiCorp Terraform Associate, CKA/CKAD. Familiarité avec des outils tels que Terragrunt, Atlantis/Spacelift/Terraform Cloud, Argo CD/Flux (GitOps), Packer. Forte sensibilité sécurité et conformité en environnement cloud.
Offre d'emploi
Senior Frontend Engineer
Publiée le
Datadog
Github
Kanban
60k-70k €
Paris, France
Télétravail partiel
Nous recherchons un développeur frontend capable de prendre en main plusieurs applications web (back-office, interfaces utilisateurs, espaces dédiés) et d’assurer la qualité, les performances et la responsivité des interfaces. La mission consiste à implémenter des fonctionnalités de bout en bout, en collaboration avec l’équipe backend, et à contribuer à l’évolution continue de la stack frontend. Le rôle inclut également l’identification proactive de problèmes (UI, bugs graphiques, performance) ainsi que leur résolution. L’environnement de travail comprend un MacBook Pro, l’IDE de votre choix, l’usage d’outils d’IA pour améliorer la productivité, ainsi qu’un workflow basé sur GitHub, GitHub Actions, Datadog, Notion et Codecov. L’organisation interne suit une méthodologie Kanban.
Offre d'emploi
Plateform Engineer confirmé (H/F) – Domaine Spatial – Toulouse
Publiée le
DevOps
12 mois
48k €
400-550 €
Toulouse, Occitanie
Télétravail partiel
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Plateform Engineer confirmé pour intervenir chez un de nos clients dans le domaine spatial 💻💼 à Toulouse. Nous cherchons un·e Platform Engineer confirmé·e qui a déjà les mains dans Kubernetes au quotidien, qui maîtrise Terraform et ArgoCD, et qui a contribué à la mise en place d’une Developer Platform ou d’un portail Backstage. En bref : quelqu’un qui aime créer des environnements où les développeurs peuvent aller vite, en sécurité, et sans friction. Voici un aperçu détaillé de vos missions 🎯 : * Concevoir et opérer une plateforme de delivery : CI/CD, provisioning, observabilité, sécurité… * Automatiser le déploiement et la gestion d’environnements cloud (souvent Kubernetes + IaaS/PaaS). * Intégrer, optimiser et maintenir des outils comme Backstage , Crossplane , ArgoCD (GitOps). * Mettre en œuvre et promouvoir l’ Infrastructure as Code (Terraform, Helm, Ansible…). * Travailler main dans la main avec les équipes de dev pour améliorer l’UX développeur, la productivité et la fiabilité. * Déployer des standards d’observabilité : logs, métriques, traces. * Garantir des pipelines sécurisés et une plateforme robuste.
Offre d'emploi
QA automatisation Back et Front end- Aix en Provence (H/F)
Publiée le
Automatisation
ISTQB
Méthode Agile
3 ans
46k-49k €
400-430 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Quel challenge proposons-nous ? Dans le cadre de projets dans le domaine du test en région PACA, nous recrutons un Ingénieur QA automatisation Back et Front end (F/H) pour renforcer nos équipes d’experts en test à Aix en Provence. Notre collaborateur devra être aussi bien à l’aise en Front qu’en back end , il intégrera une équipe Agile en approche BDD . Définir le processus de mise en œuvre de l'automatisation des tests Rédiger les plans de tests d’automatisation Comprendre et anticiper les scénarios à automatiser sur des tests fonctionnels et non fonctionnels. Automatiser dans un premier temps les tests de non régression Définir et valider les périmètres de tests Estimer la charge de test de son périmètre Rédiger les scripts d'automatisation à partir des spécifications Exécuter les cas de tests automatisés Mettre à jour et maintenir les tests automatisés Configurer et lancer les Batch Réaliser les tests de Webservices Remonter les anomalies Rédiger les rapports de tests Mode de travail = 3 jours de présentiel et 2 jours de remote - 1er mois d'intégration en présentiel
Offre d'alternance
Alternant Cloud Engineer - AIgmented
Publiée le
Cloud
DevOps
12 mois
Mulhouse, Grand Est
🎯 Mission principale Concevoir, développer et maintenir une infrastructure cloud sécurisée, scalable et industrialisée (CI/CD), basée sur des conteneurs (Docker) et de l’orchestration (Kubernetes), en garantissant la bonne gestion des ressources informatiques et des accès utilisateurs. 🧩 Responsabilités 1. Architecture & développement Cloud Concevoir et mettre en œuvre des architectures cloud (on-premise, cloud public ou hybride). Conteneuriser les applications existantes et nouvelles (Docker). Déployer et maintenir des clusters Kubernetes (K8s) pour les environnements de dev, test et prod. Mettre en place des workflows CI/CD (GitLab CI, GitHub Actions, Jenkins, etc.). 2. Orchestration & gestion des ressources Dimensionner et optimiser l’usage des ressources (CPU, RAM, stockage, GPU si besoin). Gérer les namespaces, quotas, autoscaling (HPA/VPA), nodes pools, etc. Suivre les performances et coûts (monitoring, alerting, dashboards). 3. Cybersécurité & gestion des accès Définir et appliquer les politiques de sécurité (RBAC, gestion des rôles, secrets, certificats). Mettre en œuvre la sécurité des conteneurs (scans d’images, durcissement, politiques réseau). Gérer les identités et accès (IAM, SSO, OAuth2, Keycloak/AD, etc.). Participer aux revues de sécurité et à la gestion des incidents (logs, traces, audits). 4. Supervision, fiabilité & exploitation Mettre en place le monitoring (Prometheus, Grafana, ELK/EFK, OpenTelemetry…). Assurer la haute disponibilité et la résilience (backups, DRP, redondance). Documenter les procédures d’exploitation, de déploiement et de reprise. 5. Collaboration & support Travailler en étroite collaboration avec les équipes de dev, data/IA et produit. Accompagner les développeurs pour adapter leurs applis au modèle cloud natif. Participer à l’amélioration continue des pratiques DevSecOps.
Mission freelance
Golang Backend Engineer
Publiée le
DevSecOps
Go (langage)
Kubernetes
1 an
100-500 €
Île-de-France, France
Télétravail partiel
Je recherche un Golang Backend Engineer pour l'un de mes clients en Ile de France. - Longue mission. - Démarrage début décembre ou début janvier. - 2/3 jours de TT par semaine. - Profil sénior. Contexte : Mise en place de Kubernetes. Stack technique demandée : - Concevoir, développer et maintenir un opérateur Kubernetes (CRDs, Controllers, etc.) - Automatiser la gestion de services dans un cluster Kubernetes - Maitrise du langage Golang - Contribuer à la mise en place de bonnes pratiques d’observabilité (logs,metrics, traces) - Assurer la maintenance, les tests, la documentation et la revue de code - Collaborer avec l’équipe (infrastructure, DevOps) pour respecter les bonnes pratiques cloud-native et DevSecOps - Surveiller et optimiser les performances et la fiabilité de l’opérateur K8S pour la production - Gestion des secrets (Vault)
Offre d'emploi
AI Engineer / Ingénieur·e IA - Intégration & Déploiement
Publiée le
AI
API
CI/CD
12 mois
Paris, France
Ingénieur IA | Python-RAG • Développement d’algorithmes : concevoir et développer des algorithmes d’apprentissage automatique (machine learning), d’apprentissage profond (deep learning) et d’autres techniques d’IA. • Analyse de données : collecter, nettoyer et analyser les données pour entraîner les modèles d’IA. • Optimisation des modèles : améliorer la précision et l’efficacité des modèles d’IA existants. • Intégration de solutions IA : intégrer les solutions d’IA dans les systèmes existants ou développer de nouvelles applications basées sur l’IA. • Recherche et innovation : mener des recherches pour explorer de nouvelles techniques et technologies en IA. • Collaboration interdisciplinaire : travailler avec des équipes multidisciplinaires, y compris des experts en données, des développeurs de logiciels et des chercheurs. • Veille technologique : suivre les avancées et les tendances dans le domaine de l’IA pour anticiper les évolutions et proposer des améliorations. • Documentation et reporting : rédiger des documents techniques, des rapports d’avancement et des publications scientifiques pour partager les résultats et les connaissances acquises. Profil Recherché BAC+4/+5 3 – 5 ans d’expérience en IA, Machine Learning ou Data Science Très bon niveau en Python & RAG, SQL, NoSQL
Mission freelance
Data Engineer
Publiée le
Apache Spark
Java
ODI Oracle Data Integrator
3 ans
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data
Mission freelance
Tech Lead / Senior DevOps SRE (Site Reliability Engineer)
Publiée le
CI/CD
DevOps
Incident Management
2 ans
600-700 €
Évry, Île-de-France
Télétravail partiel
Dans le cadre de l’amélioration continue de sa plateforme de paiement, notre client – acteur majeur du secteur de l’hôtellerie – renforce son équipe SRE au sein de la Digital Factory. Nous recherchons un Tech Lead/ Senior SRE capable de porter la vision technique de la Platform Team et d’assurer la disponibilité, la résilience et la performance d’environnements cloud essentiels pour le fonctionnement des services de paiement. En tant que Tech Lead / Senior SRE, votre mission : Participer à l’ensemble des activités SRE tout en soutenant et en portant la vision technique de l’équipe. Concevoir et mettre en œuvre des architectures résilientes, sécurisées et évolutives (cloud, containers, automatisation). Définir les standards SRE , les bonnes pratiques DevOps et la stratégie technique : CI/CD, observabilité, sécurité, gestion des incidents. Assurer la coordination technique avec les autres équipes Platform ainsi qu’avec le fournisseur cloud. Garantir la qualité et la stabilité des environnements internes et hors production (MCO) pour l’ensemble des applications de la tribe Paiement . Collaborer avec les équipes internes pour résoudre les problématiques de configuration, de déploiement et de débogage des applications. Surveiller l’observabilité des applications, traiter les alertes et réaliser les premières analyses en cas d’incident. Optimiser les performances et la scalabilité des applications déployées dans le cloud. Veiller à la maîtrise et à l’optimisation des coûts d’infrastructure. Assurer l’évolution et la maintenance des processus de monitoring et d’observabilité des infrastructures et applications cloud.
Offre d'emploi
Staff Engineer Python - Telecom - Paris H/F
Publiée le
FastAPI
Python
SQL
12 mois
70k-90k €
550-650 €
Paris, France
Télétravail partiel
Missions Principales Prendre le leadership technique du backend de notre système d'information. Comprendre et optimiser les processus métiers complexes comme la facturation tierce et le raccordement à la fibre. Définir et piloter avec l'équipe l'architecture de notre système distribué. S'engager dans du développement "hands on" avec Python et assurer la qualité et résilience du code. Annexes Initier et renforcer les bonnes pratiques de développement et de mise en production. Proposer et implémenter des méthodes d’exploitation qui permettront aux équipes de développement d’opérer efficacement en production.
Offre d'emploi
DevSecOps Engineer – secteur Telecom – Paris (H/F)
Publiée le
Administration système
Kubernetes
Linux
12 mois
50k-70k €
500-550 €
Paris, France
Télétravail partiel
Principales : - Concevoir, développer et intégrer des solutions de sécurité open source abordant des problématiques telles que l'authentification, le chiffrement et la protection DDoS. - Construire et déployer des briques sécurité en interaction directe avec les équipes Systèmes et Développement. - Participer aux audits de sécurité et à la revue de code pour assurer les meilleures pratiques. Annexes : - Réaliser des revues de design focalisées sur la sécurité. - Collaborer pour détecter et corriger les vulnérabilités. - Maintenir une documentation sécurité conforme aux normes (CNIL, CAC, ANSSI). - Sensibiliser et animer les équipes tech autour des enjeux de sécurité dès la conception.
Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F
Publiée le
Ansible
Apache Airflow
Apache Kafka
6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- Facturation électronique 01 : Rappel du calendrier !
- Calcul de l'indemnité de la rupture conventionnelle
422 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois