Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 290 résultats.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
Développeur PowerPlateform H/F
Publiée le
Power Platform
3 ans
Île-de-France, France
Télétravail partiel
Contexte / Objectifs : Nous recherchons un expert PowerPlatform (Power Apps et power Automate) pour maintenance et développement d'applications à destination des collaborateurs. Savoir analyser le besoin métier. - Concevoir et développer des applications PowerApps adaptées aux besoins des utilisateurs. - Mettre en place des flux automatisés avec Power Automate pour améliorer l’efficacité opérationnelle. - Communiquer avec les différents métiers. - Rédiger les différents livrables. - Assurer la formation et l’accompagnement des équipes métiers dans l’utilisation des solutions PowerPlatform. - Administrer et sécuriser l’environnement PowerPlatform (gestion des environnements, gouvernance, conformité). - Participer à la veille technologique et proposer des améliorations continues. - Partager les connaissances avec l’équipe en place Expertises spécifiques : Excellente maîtrise des outils PowerPlatform (PowerApps, Power Automate, Dataverse). Connaissance du SQL. Compréhension des architectures Microsoft 365 et Azure, et idéalement celles du Groupe BPCE Capacité à travailler en mode projet et en collaboration avec les équipes métiers. Être autonome, rigoureux. Avoir la capacité à vulgariser les concepts techniques. Avoir un bon relationnel
Mission freelance
DataOps / Ops GCP
Publiée le
Ansible
BigQuery
Google Cloud Platform (GCP)
1 an
400-500 €
Paris, France
Télétravail partiel
Notre client, recherche un Ingénieur DataOps / Ops GCP confirmé (H/F) dans le cadre d'une longue mission. Renforcement de l’équipe Data dans le cadre d’un fort accroissement de la charge projet. Le consultant interviendra sur l’ensemble des environnements GCP en lien avec les équipes Architecture, Infra et Études. - Exploitation et mise en production des projets sur Google Cloud Platform (GCP) - Diagnostic, résolution d’incidents et suivi opérationnel quotidien - Définition et pilotage de plans d’actions pour améliorer la qualité de service, sécuriser la production et optimiser la productivité - Amélioration continue des performances des environnements GCP - Participation aux projets techniques et métiers : mise en place d’environnements, déploiements, automatisations - Contribution à l’industrialisation et à l’évolution des outils d’automatisation - Collaboration régulière avec les équipes Architecture - Rôle orienté delivery projet (pas de RUN centré)
Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Mission freelance
Power Platform Senior - Janvier - 92
Publiée le
Canvas
Power Apps
Power Automate
6 mois
500-550 €
Nanterre, Île-de-France
Télétravail partiel
💥 𝐂𝐨𝐧𝐬𝐮𝐥𝐭𝐚𝐧𝐭 𝐏𝐨𝐰𝐞𝐫 𝐏𝐥𝐚𝐭𝐟𝐨𝐫𝐦 𝐒𝐞𝐧𝐢𝐨𝐫 - 𝟗𝟐 - 𝗝𝗮𝗻𝘃𝗶𝗲𝗿 - 𝐄𝐧𝐠𝐥𝐢𝐬𝐡 𝐦𝐚𝐧𝐝𝐚𝐭𝐨𝐫𝘆 💥 📍 𝟗𝟐 - 𝟮 𝐣𝐨𝐮𝐫𝐬 𝐝𝐞 𝐩𝐫𝐞́𝐬𝐞𝐧𝐭𝐢𝐞𝐥 𝐩𝐚𝐫 𝐬𝐞𝐦𝐚𝐢𝐧𝐞 📆 𝗝𝗮𝗻𝘃𝗶𝗲𝗿 - 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐥𝐨𝐧𝐠𝐮𝐞 𝐬𝐮𝐫 𝐜𝐨𝐧𝐭𝐫𝐚𝐭𝐬 𝐬𝐞𝐦𝐞𝐬𝐭𝐫𝐢𝐞𝐥𝐬 ❗ 𝐏𝐚𝐬 𝐝𝐞 𝐒𝐓𝐓, 𝐦𝐞𝐫𝐜𝐢. 🎯 𝐎𝐛𝐣𝐞𝐜𝐭𝐢𝐟𝐬 Rejoindre une équipe Power Platform Monde pour accompagner le déploiement d’applications métiers via la Power Platform (PowerApps, PowerAutomate, PowerBI). D'un compte du CAC40. Vous intervenez sur la conception, le développement, l’optimisation des flux, et la formation des utilisateurs. 🛠️ 𝐕𝐨𝐬 𝐦𝐢𝐬𝐬𝐢𝐨𝐧𝐬 Développement d’applications PowerApps (Canvas & Model-Driven) Automatisation de processus via Power Automate Support et maintenance évolutive des solutions existantes Développement ponctuel de plugins si nécessaire Accompagnement des métiers sur la structuration des Dataset / Dataflows Animation de formations "débutants" Veille technologique et participation active à la communauté Power Platform #microsoft #freelance #m365 #powerplatform #powerapps #workplace
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Mission freelance
DATA ARCHITECT (GCP)
Publiée le
Apache Airflow
BigQuery
CI/CD
6 mois
580-720 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Mission freelance
POT8816 - Un Data Engineer sur Clermont-ferrand
Publiée le
Google Cloud Platform (GCP)
6 mois
320-410 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
Mission freelance
Network Ops Engineer sénior
Publiée le
DevOps
Google Cloud Platform (GCP)
Network
3 ans
100-510 €
Lille, Hauts-de-France
Télétravail partiel
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations).
Offre d'emploi
Architecte Cloud de Confiance
Publiée le
Azure
Google Cloud Platform (GCP)
3 ans
Paris, France
Télétravail partiel
1. Architecture Cloud et gouvernance des socles Concevoir et faire évoluer les architectures des socles Cloud dans un contexte Cloud de Confiance. Définir et maintenir les standards d’architecture , patterns et bonnes pratiques Cloud. Produire et maintenir les dossiers d’architecture (socle, sécurité, réseau, IAM, exploitation). Participer aux revues d’architecture projets et émettre des avis techniques structurants. Contribuer à la définition des principes de gouvernance Cloud (sécurité, exploitabilité, coûts, conformité). 2. Industrialisation et Infrastructure as Code Concevoir, développer et maintenir des modules Infrastructure as Code (Terraform) pour les socles et les projets. Structurer des architectures IaC modulaires, versionnées et documentées . Mettre en œuvre et maintenir des pipelines CI/CD pour l’industrialisation des socles et environnements projets. Garantir la qualité des livrables via des pratiques de tests, revues de code et standards de développement . Contribuer à une approche GitOps / Platform Engineering . 3. Communs Cloud et logique produit Développer et maintenir un catalogue de communs Cloud . Assurer la maintenance évolutive des communs existants. Garantir la cohérence et la compatibilité des communs dans un contexte multisocle . Participer à une logique produit plateforme .
Offre d'emploi
Ingénieur Mathématiques Appliquées / ML Data Scientist
Publiée le
Azure
Google Cloud Platform (GCP)
40k-54k €
Paris, France
Redlab cherche pour son client parisien , un Data scientist confirmé ( 4-6 ans d'expérience ) pour un démarrage en début d'année 2026 , le consultant interviendra sur : Rôle Modélise, développe et optimise des algorithmes d’IA : ML, Deep Learning, LLM, optimisation et pipelines cloud. Missions clés Concevoir pipelines de données (Azure/GCP/AWS). Développer modèles ML/DL/LLM (TensorFlow, PyTorch). Fine-tuning (BERT, LLaMA, etc.). Optimiser modèles (pruning, quantification). Collaborer avec équipes Data & Dev pour intégration.
Mission freelance
Expert AWS
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de nos équipes techniques, nous recherchons un Ingénieur d’Études et Développement Cloud / DevOps pour intervenir sur des projets à forte valeur ajoutée, en environnement Cloud et DevOps, de l’intégration à la production. Vous interviendrez aussi bien sur les aspects techniques que fonctionnels , en lien étroit avec les équipes projets, les développeurs et les équipes opérationnelles. Vos missions Ingénierie & Développement Concevoir des solutions techniques adaptées aux besoins métiers Paramétrer, développer et qualifier des solutions applicatives Analyser les traitements et réaliser des études détaillées ou études d’impact Rédiger les dossiers de conception générale et détaillée DevOps & Cloud Continuer et améliorer les actions d’automatisation et de fiabilisation Définir et maintenir des modules Terraform Mettre en œuvre des pipelines CI/CD Participer au déploiement des applications jusqu’en production Intervenir sur les environnements d’intégration, de recette et de production Run & Support Assurer le support technique de niveau 3 auprès des équipes de développement Analyser, diagnostiquer et éradiquer les incidents Participer à la gestion de la production / run (astreintes possibles) Transverse Réaliser des revues de code Assurer une veille technologique continue Réaliser des présentations techniques Rédiger des dossiers techniques, avis techniques et feuilles de route à destination des chefs de projet et des équipes opérationnelles 🛠️ Expertise attendue Indispensable Expertise confirmée en Terraform (conception et gestion de modules) Très bonne maîtrise du Cloud AWS et GCP Expérience significative en CI/CD : GitLab CI, Jenkins, Ansible, AWX… Développement et scripting en Python Bonne connaissance de Kubernetes Atouts supplémentaires Culture DevOps et bonnes pratiques d’industrialisation Capacité à travailler sur des environnements complexes et critiques
Mission freelance
Tech Lead SRE (Platform team) F/H
Publiée le
AWS Cloud
Gitlab
Site Reliability Engineering (SRE)
12 mois
500-600 €
Évry, Île-de-France
Télétravail partiel
Vous intégrerez lʼéquipe “Platform Team” de la tribe Paiement de la Digital Factory en tant que Tech Lead SRE – Site Reliability Engineer (H/F). Vous superviserez l'ensemble des activités SRE et porterez la vision technique de l'équipe : Participerez à la conception et mise en œuvre de lʼarchitecture résiliente et évolutive des plateformes (cloud, containers, automatisation Définition des standards SRE, des bonnes pratiques DevOps, et de la stratégie technique (CI/CD, observabilité, sécurité, gestion des incidents) Encadrement et développement de lʼéquipe SRE (mentorat, pair programming, formation) Gestion des relations techniques avec les autres équipes Platform et fournisseur cloud Solide maîtrise des outils dʼinfrastructure (Kubernetes, Docker, Terraform, monitoring avancé) et des langages (Python, Go, Java) Expérience confirmée en leadership technique, capacité à prendre des décisions structurantes, à arbitrer et à communiquer dans des environnements complexes Vous interviendrez sur tous les aspects de maintien en condition opérationnel des applications constituant la tribe Paiement, en veillant à l'optimisation et la stabilisation des environnements de production et hors production. Vous collaborerez avec les autres équipes de la tribe ou externe à celle-ci pour résoudre les problèmes liés la configuration, au déploiement ou au déboggage des applications. Vous devrez suivre l'observabilité des applications constituant la tribe en levant les alertes et en effectuant les premières analyses en cas de pannes détectées. Optimiser les performances des applications déployées dans le cloud et garantir leur scalabilité en fonction des besoins. Assurer l'optimisation des infrastructures en termes de coûts et d'utilisation. Veiller à l'évolution et la maintenance des processus de surveillance (observabilité) et du monitoring des infrastructures et applications déployées dans le cloud Responsabilités Responsable des actions de sécurité et conformité de la plateforme Paiement (en collaboration avec lʼarchitecte et les Tech Lead) En collaboration avec l'architecte et les Tech Lead, concevoir et faire évoluer l'architecture cible de la plateforme Paiement en garantissant résilience, performance et scalabilité Participer activement à la définition des patterns d'architecture reproductibles (blueprints : networking, sécurité, déploiement, observabilité) Participer activement aux choix technologiques structurants et aux orientations d'urbanisation cloud et plateforme Construire et améliorer les pipelines CI/CD (GitLab CI) incluant tests automatisés, scans sécurité, qualité et déploiements progressifs Réduire le travail manuel en automatisant les opérations répétitives (scripts, jobs, workflows) Accompagner les équipes de développement dans l'adoption de ces modèles Analyser, corriger et suivre les tickets (Service Now / Jira) de support niveau 3 émanant des différents supports de niveau 2 et de tout l'écosystème (plateforme de paiement et partenaires externes de paiement). Effectuer les traitements de maintenance en condition opérationnelle incluant les rattrapages en cas d'incidents, les opérations de bulk. Maintenir à jour la documentation des infrastructures et de toutes les procédures de maintien en condition opérationnelle de l'équipe. Participer au handover lors de livraison en production de nouvelles features. Livrer des rapports techniques « on demand » concernant les performances/incidents de la plateforme. Participer et être force de proposition dans toutes les réunions de suivis avec les différentes équipes de supports. Analyser et être capable de traduire lʼanalyse vers les équipes de développement en cas de correction à mettre en place suite à un ticket dʼincident ou d'optimisation. Mettre en place, maintenir et suivre au jour le jour les systèmes de surveillance pour assurer la disponibilité et la performance des applications (Splunk Observability). Réagir rapidement en cas de défaillance ou de panne, analyser les causes et proposer des solutions pérennes. Suivre les coûts de la plateforme AWS et détecter au plus tôt les dérives puis proposer des solutions pour rester dans les budgets (approche FinOps structurée).
Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)
Publiée le
Ansible
Datadog
Google Cloud Platform (GCP)
3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Attaché à la Global Tech & Data platform, dans le Domain Voice of Customer tu rejoins une équipe pluridisciplinaire d’assistance à nos clients internes (BU, plateformes, …) dont la mission principale est de prendre en charge toutes les sollicitations en provenance des utilisateurs de la Tech&Data (Incidents, demandes de services, questions). Tu seras rattaché directement à l'activité de l'un de nos produits de data engineering: Datahub Pipelines pour lequel nous avons besoin de support fonctionnel (compréhension du logiciel back et front), technique (comprendre et régler des problèmes d'implémentations, notamment dans la stack technique des produits digitaux via terraform). L'univers de développement est complètement encadré dans GCP. Missions principales : 🛠 Tu analyses et résous des incidents complexes 🔍 Tu identifies les incidents récurrents 🤝 Tu traites les demandes de services 🤝 Tu collabores avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents 🤝 Tu collabores avec l'équipe onboarding et advocacy pour l'accompagnement des nouveaux utilisateurs 📊 Tu contribues à l'automatisation et à l’amélioration continue du/des produits 📝 Tu documentes et partages nos résolutions pour capitaliser 2. Compétences techniques requises : ✅ Cloud Computing : GCP ✅ Observabilité & Monitoring : Datadog, Prometheus, Grafana, ✅ Automatisation & Infrastructure as Code : Terraform, Ansible, Helm, Kubernetes (K8s) ✅ Scripting : Python, Bash, Go ✅ Gestion des alertes : PagerDuty 3. Soft Skills recherchées : ⭐ Esprit analytique : Capacité à détecter rapidement des problèmes et à les résoudre efficacement. ⭐ Proactivité & autonomie : Capacité à anticiper les incidents avant qu’ils n’impactent les services. ⭐ Collaboration : Travail en équipe avec les équipes produit ⭐ Sens du service client : la satisfaction de nos clients est ta priorité Un minimum de 2 jours sur site est exigé
Offre d'emploi
Consultant Power plateform H/F
Publiée le
Power Apps
Power Platform
SQL
3 ans
Île-de-France, France
Télétravail partiel
- Concevoir et développer des applications PowerApps adaptées aux besoins des utilisateurs. - Mettre en place des flux automatisés avec Power Automate pour améliorer l’efficacité opérationnelle. - Communiquer avec les différents métiers. - Rédiger les différents livrables. - Assurer la formation et l’accompagnement des équipes métiers dans l’utilisation des solutions PowerPlatform. - Administrer et sécuriser l’environnement PowerPlatform (gestion des environnements, gouvernance, conformité). - Participer à la veille technologique et proposer des améliorations continues. - Partager les connaissances avec l’équipe en place Excellente maîtrise des outils PowerPlatform (PowerApps, Power Automate, Dataverse). Connaissance du SQL. Compréhension des architectures Microsoft 365 et Azure, et idéalement celles du Groupe.
Mission freelance
Développeur Python/vuejs
Publiée le
Google Cloud Platform (GCP)
Python
Vue.js
1 an
400-440 €
Lille, Hauts-de-France
Télétravail partiel
Le/La Software Engineer - Full stack contribuera au développement et à la maintenance de nos solutions logicielles réseau. Responsabilités Développement : - Concevoir l'architecture de composants backend et frontend - Participer au développement de nouvelles fonctionnalités pour nos produits logiciels. - Rédiger du code propre, efficace, testé et bien documenté. - Réaliser de revues de conception et de code - Participer à la définition de la stratégie et des objectifs de l'équipe en matière de software - Corriger les bugs et les anomalies. - Assister les équipes techniques et les clients en cas de problèmes. Projets spécifiques à court terme: - Développement sur notre outil de gestion des flux firewalls - Automatisation d'autres tâches réseau Note: Une très forte expertise technique est attendue
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- Facturation électronique 01 : Rappel du calendrier !
290 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois