L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 667 résultats.
Mission freelance
Développeur Python/vuejs
Publiée le
Google Cloud Platform (GCP)
Python
Vue.js
1 an
400-440 €
Lille, Hauts-de-France
Télétravail partiel
Le/La Software Engineer - Full stack contribuera au développement et à la maintenance de nos solutions logicielles réseau. Responsabilités Développement : - Concevoir l'architecture de composants backend et frontend - Participer au développement de nouvelles fonctionnalités pour nos produits logiciels. - Rédiger du code propre, efficace, testé et bien documenté. - Réaliser de revues de conception et de code - Participer à la définition de la stratégie et des objectifs de l'équipe en matière de software - Corriger les bugs et les anomalies. - Assister les équipes techniques et les clients en cas de problèmes. Projets spécifiques à court terme: - Développement sur notre outil de gestion des flux firewalls - Automatisation d'autres tâches réseau Note: Une très forte expertise technique est attendue
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Mission freelance
Chef de Projet Technique DATA
Publiée le
BigQuery
Cloud
Comité de pilotage (COPIL)
6 mois
Paris, France
Télétravail partiel
Dans le cadre de la modernisation de son écosystème Data et de la montée en charge de projets stratégiques Cloud, nous recherchons un Chef de Projet Technique confirmé spécialisé GCP. Vous interviendrez au sein d’une DSI Assurance mobilisée autour de l’industrialisation de ses usages Data et de l’accélération des livraisons sur la plateforme Cloud. Votre rôle Vous jouez un rôle clé dans la coordination technique, la structuration des travaux DATA sur GCP et le pilotage global de l’avancement du programme. Vos responsabilités • Piloter les projets Data hébergés sur Google Cloud Platform. • Coordonner les équipes techniques (Data, IT, Cloud, Transverse). • Assurer le suivi planning, risques, charges et dépendances. • Organiser et animer les comités projet / comités techniques. • Consolider les besoins techniques et suivre l’avancement des actions. • Garantir la qualité des livrables, la cohérence technique et la bonne circulation de l’information. • Veiller au respect des normes internes, bonnes pratiques Cloud et exigences de sécurité.
Offre d'emploi
Ingénieur DevOps GCP/MLOps
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
MLOps
1 an
48k-50k €
480-510 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets stratégiques orientés Data & Intelligence Artificielle, nous recherchons un Ingénieur DevOps GCP/MLOps intervenant sur l’ensemble du cycle de vie des solutions : design, build et run . Vous intégrerez une équipe dédiée au périmètre DATA, en collaboration étroite avec les squads métiers. ✅ Vos missions Conception, gestion et automatisation d’infrastructures Cloud sur GCP Mise en place et optimisation de chaînes MLOps : collecte et préparation de la donnée, feature engineering, entraînement, déploiement, monitoring et amélioration des modèles Industrialisation des pipelines CI/CD et automatisation des déploiements Maintien en condition opérationnelle des plateformes et applications Gestion du cycle de vie applicatif Analyse et résolution d’incidents d’infrastructure Rédaction des procédures et documentation technique ✅ Profil recherché Expérience confirmée en tant qu’Ingénieur DevOps ou MLOps sur GCP (obligatoire) Maîtrise de Terraform (y compris en environnement restreint / air-gapped idéalement) Solides compétences en scripting, automatisation et normalisation Connaissance des pratiques CI/CD, observabilité et monitoring Capacité à intervenir en production (MCO / MEP) ✅ Environnements techniques Cloud : GCP (AWS apprécié) MLOps / IA : Kubeflow, TensorFlow, PyTorch, notebooks, Python Containerisation & orchestration : Kubernetes, Docker, ArgoCD, EKS (atout) CI/CD : Jenkins, Helm, Artifactory, Container Registry IaC : Terraform Monitoring & logs : ELK, OpenSearch, Grafana, Cloud Monitoring / Logging ✅ Soft Skills Rigueur, autonomie et sens du service Aisance relationnelle et travail en équipe Réactivité, partage et communication Gestion du stress et capacité de conseil
Mission freelance
Senior Data Engineer
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Offre d'emploi
Ingénieur Production / DevOps GCP (H/F)
Publiée le
Google Cloud Platform (GCP)
Jenkins
Maintien en condition opérationnelle (MCO)
2 ans
40k-47k €
340-440 €
Charenton-le-Pont, Île-de-France
Télétravail partiel
Nous recherchons un Ingénieur Production / DevOps pour renforcer une équipe en charge du RUN, du MCO et du déploiement d’une nouvelle plateforme applicative. La mission s’inscrit dans le cadre d’un nouveau projet orienté GCP (Google Cloud Platform) , incluant de la CI/CD, de l’automatisation et des travaux de migration d’ordonnanceur. Missions principales 1. RUN / MCO Assurer le support de production applicative Suivre et résoudre les incidents et problèmes Gérer les transferts de fichiers et flux applicatifs Traiter les demandes via Jira 2. Déploiement & Projets Déployer de nouvelles plateformes applicatives Contribuer au lancement d’un nouveau projet sur GCP Collaborer avec les équipes Dev, Infra, Réseau et Sécurité 3. CI/CD & Automatisation Gérer et optimiser les pipelines CI/CD : XL Release / XL Deploy Jenkins Terraform (GCP) Automatiser les tâches récurrentes : Python Shell / Bash 4. Supervision & Ordonnancement Surveiller les environnements via : Zabbix Grafana Travailler sur les ordonnanceurs : VTOM (en place) Migration prévue vers Control-M Environnement technique Cloud : GCP CI/CD : XLR / XLD, Jenkins IaC : Terraform (GCP) Scripting : Python, Shell, Bash Supervision : Zabbix, Grafana Ordonnancement : VTOM → Control-M Gestion tickets : Jira Profil recherché Expérience confirmée en Production Applicative / DevOps Excellente maîtrise du RUN / MCO Compétences solides en CI/CD (Jenkins, XLR/XLD, Terraform) Très bon niveau en automatisation (Python, Shell, Bash) Connaissance ou pratique de GCP Maîtrise des outils de supervision Connaissance de VTOM ou Control-M Bon relationnel, rigueur, proactivité et autonomie
Offre d'emploi
PIXIE - Architecte Data Sénior Lyon/Paris +7 ans - Data IA
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
3 ans
France
Bonjour Pour un de mes clients, je recherche un(e) Architecte Data Sénior Site : Lyon (2 jours par semaine sur site) ou Paris Expérience : +7 ans Contexte : Mission pour la cellule Marché Data IA Profil recherché : Architecte Data Sénior Missions principales : Définir la stratégie et la feuille de route Data Structurer et cadrer les chantiers Data Animer la communauté Data Mettre en place la gouvernance des données Contribuer aux choix d’architecture et d’outils Produire des livrables Data Piloter l’avancement en mode Agile avec reporting Compétences clés : Stratégie Data expert Gouvernance Data expert Architecture Data expert Animation transverse maîtrise Agile et Planisware connaissance Environnement : Planisware Outils Data GitLab, Jira, Confluence, ITSM Teams, SharePoint AWS, GCP Résumé : Architecte Data Sénior avec forte expertise en stratégie, gouvernance et architecture Data, environnement cloud et Agile Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Mission freelance
TECH LEAD JAVA CLOUD
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Java
12 mois
100-600 €
Île-de-France, France
Télétravail partiel
Missions : Participer à la conception d’architectures applicatives modernes (microservices, cloud). Analyser les besoins, proposer des solutions robustes et scalables. Garantir la qualité technique des livrables (revues, guidelines, standards). Collaborer étroitement avec les product owners, les experts techniques et les autres tribus. Contribuer à l’évolution du socle technique et des frameworks internes. Participer aux rituels de l'équipe : des partages de connaissances, de la veille, amélioration continue.
Mission freelance
Architecte Réseau et Sécurité
Publiée le
Ansible
Azure
Cisco Meraki
3 mois
500-600 €
59000, Lille, Hauts-de-France
Télétravail partiel
Environnement International – Cloud Hybride – Technologies Avancées Nous accompagnons notre client, un acteur évoluant dans un environnement international et fortement digitalisé, dans le recrutement d’un Architecte Réseau & Sécurité . Au sein de la Direction Infrastructures & Technologies, vous rejoindrez l’équipe Architecture Technique et interviendrez sur des projets stratégiques de transformation réseau, sécurité et cloud hybride. Vos missions En tant qu’Architecte Réseau & Sécurité, vous serez responsable de : Architecture & Design Concevoir l’architecture Réseau & Sécurité sur des projets stratégiques. Définir et structurer la feuille de route technologique . Garantir la cohérence, la sécurité et la conformité des solutions proposées. Déploiement & Transformation Participer activement aux projets de déploiement et de transformation. Veiller à la bonne mise en œuvre des solutions dans les environnements opérationnels. Expertise & Support Niveau 3 Assister les équipes de production grâce à votre expertise. Diagnostiquer les problématiques complexes, proposer les plans de correction. Piloter les actions d’amélioration continue et de sécurisation du SI.
Mission freelance
Analytics Engineer Senior H/F
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
350-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur High-tech recherche un/une Analytics Engineer Senior H/F Description de la mission: Contexte : Le client déploie un programme stratégique pour fiabiliser et industrialiser ses métriques business. Il recherche un Senior Analytics Engineer Freelance pour piloter la conception et le POC d’un Semantic Layer destiné à +500 utilisateurs internes. Mission : 1. Semantic Layer (mission prioritaire) Concevoir et prototyper l’architecture du Semantic Layer (dbt + BigQuery + GCP). Standardiser et documenter les métriques business clés. Définir une source unique de vérité pour tous les outils analytics (Tableau, BigQuery, GSheets, LLMs…). Intégrer le Semantic Layer aux usages IA (LLM). Produire la documentation technique et les bonnes pratiques. 2. Pipeline Analytics Maintenir et optimiser le pipeline existant (dbt + BI). Développer nouvelles features (qualité, documentation, monitoring). Résoudre incidents & data quality issues. Optimiser coûts et performances BigQuery. Support ponctuel aux équipes internes (code review, mentoring junior). Administration BI (gestion utilisateurs & permissions). Profil recherché : 5+ ans en Analytics Engineering / Data Engineering. Expertise dbt (modélisation, tests, docs) & SQL avancé. Très bonne maîtrise BigQuery (optimisation, coûts). Expérience démontrée Semantic Layer / Metrics Layer (dbt metrics, LookML, Cube.js…). Expérience BI (Tableau, Looker…). Bonus : GCP, modélisation dimensionnelle.
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Mission freelance
DevOps - Cloud GCP (Nantes) H/F
Publiée le
Google Cloud Platform (GCP)
6 mois
500-600 €
Nantes, Pays de la Loire
Télétravail partiel
Notre client dans le secteur Banque et finance recherche un/une DevOps H/F Description de la mission: Nous recherchons un(e) Freelance DevOps pour rejoindre une équipe transverse en pleine structuration au sein d'une FinTech. Ta mission sera essentielle au développement de l’équipe : accompagner et faire grandir techniquement des profils plus juniors, tout en contribuant à standardiser et harmoniser nos pratiques DevOps à l’échelle du groupe. contribuer à l’harmonisation des pratiques DevOps à l’échelle de l’entreprise : tu interviendras sur des sujets stratégiques : pipelines CI/CD, infrastructure as code (Terraform), déploiements sur Google Cloud Platform, observabilité (OpenSearch, Grafana, OpenTelemetry). faire le lien entre les équipes de développement, les équipes infrastructure et les exploitants : ton rôle sera autant technique qu’humain : tu prendras plaisir à transmettre, structurer, évangéliser les bonnes pratiques et t’assurer que nos standards deviennent un socle commun pour toutes nos équipes.
Mission freelance
Data BI Analyst (Power BI / GCP / ServiceNow) - Anglophone - 92 - Janvier
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI
1 an
450-500 €
Nanterre, Île-de-France
Télétravail partiel
🚀 Data BI Analyst (Power BI / GCP / ServiceNow) - Anglophone - 92 🚀 𝗗𝗲́𝗺𝗮𝗿𝗿𝗮𝗴𝗲 𝗝𝗮𝗻𝘃𝗶𝗲𝗿 - 𝗧𝗲𝗺𝗽𝘀 𝗽𝗹𝗲𝗶𝗻 - 𝟯 𝗮𝗻𝘀 𝗱𝗲 𝗺𝗶𝘀𝘀𝗶𝗼𝗻 𝟵𝟮 - 𝟯 𝗷𝗼𝘂𝗿𝘀 𝘀𝘂𝗿 𝘀𝗶𝘁𝗲 𝗽𝗮𝗿 𝘀𝗲𝗺𝗮𝗶𝗻𝗲 Je recherche un BI Analyst pour rejoindre un grand programme de transformation au sein d’un groupe international. Objectif : transformer des datasets complexes en dashboards Power BI “pixel-perfect”, clairs, esthétiques et actionnables pour le pilotage projet & programme. 🔧 Environnement : Power BI • GCP • BigQuery • ServiceNow (ITBM/SPM) 🎯 𝗥𝗲𝘀𝗽𝗼𝗻𝘀𝗮𝗯𝗶𝗹𝗶𝘁𝗲́𝘀 Concevoir des dashboards Power BI avancés (UX, storytelling, interactions) Interroger & analyser les données dans BigQuery Exploiter en profondeur les données ServiceNow (must-have) Collaborer avec le Data Engineer & le Business Analyst Garantir une qualité de données irréprochable #Freelance #DataAnalyst #PowerBI #GCP #BigQuery #ServiceNow #BI
Mission freelance
Un lead dev front Vue JS Sur Lyon.
Publiée le
Google Cloud Platform (GCP)
Node.js
TypeScript
6 mois
100-350 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients ,Un lead dev front Vue JS Sur Lyon. descriptif: un lead dev front Vue JS pour un projet de refonte en capacité d'intervenir aussi sur du back en Node.JS / typescript. Idéalement a déjà travaillé sur le cloud GCP. capacité d'orienter une équipe de dév et d'apporter son expertise Dispose d'une vision métier Démarrage souhaité en Janvier Télé travail à hauteur de 2 jours / semaine pouvant aller jusqu'à 3 selon la localisation du consultant. Almatek recherche pour l'un de ses clients ,Un lead dev front Vue JS Sur Lyon. descriptif: un lead dev front Vue JS pour un projet de refonte en capacité d'intervenir aussi sur du back en Node.JS / typescript. Idéalement a déjà travaillé sur le cloud GCP. capacité d'orienter une équipe de dév et d'apporter son expertise Dispose d'une vision métier Démarrage souhaité en Janvier Télé travail à hauteur de 2 jours / semaine pouvant aller jusqu'à 3 selon la localisation du consultant.
Offre d'emploi
Ingénieur DEVOPS
Publiée le
Ansible
AWS Cloud
Azure
40k-45k €
Lille, Hauts-de-France
Ce que nous offrons : - Un environnement de travail stimulant, où chaque projet est une opportunité de repousser les limites de l'innovation avec des outils comme Docker, Kubernetes, Ansible, Terraform, AWS/GCP, et bien plus. - Une culture d'entreprise qui valorise la formation continue, l'autonomie et la collaboration entre équipes multidisciplinaires. - Un poste basé dans la dynamique métropole lilloise, centre d'innovation et de technologie. Missions pour l'Ingénieur DevOps : - Automatisation des pipelines CI/CD pour accélérer le déploiement des applications tout en garantissant leur fiabilité et leur sécurité. - Orchestration des conteneurs avec Kubernetes, assurant la scalabilité et la gestion efficace des microservices. - Gestion de l'infrastructure as code (IaC) avec Terraform ou Ansible, permettant une gestion cohérente et reproductible des environnements de production, de test et de développement. - Surveillance et optimisation des performances des systèmes en place, en utilisant des outils de monitoring avancés pour prévenir les incidents avant qu'ils ne surviennent. - Collaboration étroite avec les équipes de développement et d'opérations pour instaurer une culture DevOps forte, favorisant l'intégration et la livraison continues (CI/CD). - Sécurisation des pipelines de déploiement et de l'infrastructure cloud via des pratiques de sécurité DevOps (DevSecOps), incluant la gestion des vulnérabilités et la conformité.
Mission freelance
Data Engineer Air France : Tests de Non-Régression
Publiée le
Agile Scrum
Google Cloud Platform (GCP)
Linux
3 mois
440 €
Paris, France
Télétravail partiel
Vous rejoindrez une équipe agile (10 personnes dans l'équipe "customer data", dont 3 développeurs, PO, BA, Scrum Master, PM) pour travailler sur un enjeu majeur : garantir la fiabilité des données clients. Votre mission principale sera de concevoir et d'exécuter des tests de non-régression entre la plateforme de données historique on-site et la nouvelle plateforme migrée sur GCP (Google Cloud Platform) . 💻 Votre Profil et Compétences Une forte expertise en SQL (Teradata/GCP) est indispensable (environ 60 % de l'activité). Vous utiliserez également vos compétences en Big Data (15 %) et Linux (10 %) pour investiguer les problèmes. Nous recherchons un profil faisant preuve d'une forte autonomie , d'un engagement et d'une curiosité solides pour concevoir et mener des tests fiables. Une bonne intégration dans une équipe dynamique est essentielle. Le candidat devra maîtriser l' anglais courant (C1 minimum)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3667 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois