L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 350 résultats.
Mission freelance
Senior GCP Cloud Engineer - Génie Civile - Full Remote (H/F)
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
6 mois
500-550 €
Toulouse, Occitanie
Télétravail 100%
Grand groupe dans le secteur GENIE CIVIL, rejoignez une équipe tech ambitieuse en tant que Senior GCP Cloud Engineer le déploiement de deux nouveaux projets pour concevoir, automatiser et maintenir l’infrastructure cloud de notre plateforme sur GCP. Vous jouerez un rôle central dans l’implémentation de solutions scalables et robustes à travers Terraform, Terragrunt, Python, chaîne DevOps avec github et Jenkins. Mission longue durée à pourvoir début janvier 2026. Missions - Développer, déployer et optimiser des Landing Zones sur GCP pour de nouveaux projets stratégiques. - Collaborer étroitement avec les équipes de DevOps pour intégrer des solutions automatisées avec Terraform et Terragrunt. - Assurer le support et la formation des équipes internes ainsi que des clients sur les meilleures pratiques et innovations de GCP. - Gérer les permissions IAM et la configuration VPC-SC afin de garantir l'intégrité et la sécurité de l'environnement cloud. - Interagir régulièrement avec les stakeholders pour comprendre et répondre aux besoins commerciaux et techniques. - Documenter les processus et partager les bonnes pratiques au sein de l'entreprise. - Participer à des sessions de formation pour contribuer à l'évolution technique de l'équipe.
Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Mission freelance
Tech Lead / Senior DevOps SRE (Site Reliability Engineer)
Publiée le
CI/CD
DevOps
Incident Management
2 ans
600-700 €
Évry, Île-de-France
Télétravail partiel
Dans le cadre de l’amélioration continue de sa plateforme de paiement, notre client – acteur majeur du secteur de l’hôtellerie – renforce son équipe SRE au sein de la Digital Factory. Nous recherchons un Tech Lead/ Senior SRE capable de porter la vision technique de la Platform Team et d’assurer la disponibilité, la résilience et la performance d’environnements cloud essentiels pour le fonctionnement des services de paiement. En tant que Tech Lead / Senior SRE, votre mission : Participer à l’ensemble des activités SRE tout en soutenant et en portant la vision technique de l’équipe. Concevoir et mettre en œuvre des architectures résilientes, sécurisées et évolutives (cloud, containers, automatisation). Définir les standards SRE , les bonnes pratiques DevOps et la stratégie technique : CI/CD, observabilité, sécurité, gestion des incidents. Assurer la coordination technique avec les autres équipes Platform ainsi qu’avec le fournisseur cloud. Garantir la qualité et la stabilité des environnements internes et hors production (MCO) pour l’ensemble des applications de la tribe Paiement . Collaborer avec les équipes internes pour résoudre les problématiques de configuration, de déploiement et de débogage des applications. Surveiller l’observabilité des applications, traiter les alertes et réaliser les premières analyses en cas d’incident. Optimiser les performances et la scalabilité des applications déployées dans le cloud. Veiller à la maîtrise et à l’optimisation des coûts d’infrastructure. Assurer l’évolution et la maintenance des processus de monitoring et d’observabilité des infrastructures et applications cloud.
Mission freelance
Network Ops Engineer sénior
Publiée le
DevOps
Google Cloud Platform (GCP)
Network
3 ans
100-510 €
Lille, Hauts-de-France
Télétravail partiel
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations).
Mission freelance
Sustainability & Green IT Lead (GenAI / Media) h/f
Publiée le
GenAI
Google Cloud Platform (GCP)
3 mois
400-610 €
Clichy, Île-de-France
Télétravail partiel
Objectifs de la mission Définir une stratégie de durabilité pour les services GenAI Mesurer, suivre et piloter l’impact CO₂ et énergétique Influencer les choix techniques et produits sous l’angle environnemental Responsabilités Définir les guidelines Green IT & éco-design pour l’ensemble des services AI tech Modéliser, mesurer et monitorer la consommation énergétique et CO₂ (modèles, infra, data, media processing, stockage) Challenger les choix d’architecture (modèles IA, cloud, pipelines data) Collaborer avec les équipes Produit, Tech, Data et Design Construire des dashboards & KPI pour le pilotage et la prise de décision Réaliser une veille & benchmark des standards et bonnes pratiques Sustainable AI / Green IT
Offre d'emploi
Lead Devops / Expert Devops / Cloud
Publiée le
CI/CD
DevOps
1 an
40k-45k €
400-630 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Un leader DevOps / Expert DevOps / Cloud recherché pour un centre d'excellence DevSecOps au sein d'une importante institution financière internationale. Contexte Une filiale spécialisée dans le financement de biens d'équipement et immobiliers pour entreprises, gérant des applications web et mobiles mutualisées pour plusieurs pays européens. Mission principale Au sein du COE PLM DevSecOps, vous aurez pour rôle de : Contribuer au pilotage, à la structuration et à l'animation du COE Agir comme facilitateur/trice technique auprès des équipes projets, produits et infrastructures Travailler en étroite collaboration avec les développeurs, référents sécurité, architecture et production Compétences requises Expertise approfondie des pratiques CI/CD Expertise technique Java et Angular Aptitude à accompagner les équipes dans l'adoption de nouveaux outils et pratiques DevSecOps Excellentes capacités rédactionnelles Responsabilités détaillées Accompagnement et expertise Contribuer à la migration vers la toolchain groupe Accompagner les équipes dans l'adoption des pratiques DevSecOps Réaliser des audits de pipelines et des revues de sécurité Participer à la montée en compétence via coaching et formations Assurer le support des équipes de développement, sécurité et production
Mission freelance
Data Engineer/ Expert GCP
Publiée le
BigQuery
Cloud
Data science
12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Offre d'emploi
Architecte Solutions SI (H/F)
Publiée le
Architecture
CI/CD
Cloud
1 an
40k-45k €
400-490 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
📣 Offre : Architecte Solutions SI (H/F) 📍 Localisation : Niort (79) – 3 jours sur site / 2 jours en télétravail 🎯 Démarrage : ASAP ⏳ Durée : Mission longue Nous recherchons un Architecte Solutions SI pour accompagner l’un de nos clients dans la conception, la structuration et l’évolution de son système d’information. Tu interviendras au sein des équipes techniques et projets pour définir les architectures cibles, sécuriser les choix techniques et garantir la cohérence globale du SI. 🛠️ Vos missions Concevoir et proposer des architectures applicatives et techniques robustes et évolutives. Participer à la définition des trajectoires d’évolution du SI . Réaliser des études d’impact , des analyses de risques et des recommandations techniques. Assurer la cohérence des choix d’architecture entre les différents projets. Challenger les solutions proposées par les équipes de développement et d’intégration. Contribuer à la rédaction des documents d’architecture et normes internes. Accompagner les équipes projet dans la mise en œuvre des solutions retenues. 🔎 Compétences recherchées Expérience solide en architecture SI (applicative, technique, cloud ou data selon les contextes). Maîtrise d’un ou plusieurs environnements : Microservices, REST, API Management Cloud (Azure / AWS / GCP) Architecture orientée événements, message brokers Sécurité, IAM, gouvernance Forte capacité d’analyse, vision globale du SI, esprit de synthèse. Aisance relationnelle et capacité à travailler en transverse avec les équipes IT et métiers. 🎯 Profil Architecte confirmé(e) ou senior Habitué(e) aux environnements complexes / grands comptes Force de proposition et sens du delivery
Mission freelance
TechLead DevOps Cloud
Publiée le
Ansible
CI/CD
Cloud
6 mois
350-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Recherche d’un Tech Lead DevOps expérimenté pour piloter la conception et l’industrialisation des plateformes : CI/CD, conteneurisation/orchestration, sécurité et observabilité. Maîtrise Kubernetes , Helm , Rancher/Istio , GitLab CI/Jenkins/GitHub Actions , ArgoCD/FluxCD , Terraform , Ansible . Expertise Azure ou GCP , automatisation, policy-as-code (OPA) , scanning ( Trivy ), détection ( Falco ), benchmarks CIS . Mise en place de monitoring avec Prometheus , Grafana , Loki . Leadership technique, mentoring, revues d’architecture.
Mission freelance
Data Engineer GCP - Rennes
Publiée le
Agile Scrum
Apache Airflow
BigQuery
12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Offre d'emploi
Administrateur Plateforme GCP (H/F)
Publiée le
Git
IAM
Jenkins
24 mois
45k-55k €
450-550 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins la DSI d’un acteur national majeur de la grande distribution, avec un SI riche et stratégique : milliers de serveurs, applications critiques et forte dynamique de migration Cloud. Dans l’équipe en charge de la gestion opérationnelle de la plateforme GCP, tu garantiras disponibilité, performance, sécurité et scalabilité des environnements — en cohérence avec un fonctionnement Agile et collaboratif. Tu auras pour missions de : Administrer et faire évoluer les environnements GCP (projets, IAM, quotas, monitoring, réseaux). Contribuer à la gestion et à l’exploitation de GKE / Kubernetes (clusters, workloads, politiques). Industrialiser les opérations via Terraform, Git et CI/CD. Participer au Build & au Run : support avancé, remédiation, optimisation. Accompagner les équipes utilisatrices dans leurs besoins, leurs choix techniques et leurs bonnes pratiques Cloud. Prendre part à la prise de décision collective de l’équipe et participer aux validations techniques. Monter en compétence à plusieurs, via pair programming, ateliers techniques et revues. Porter un mindset Agile : collaboration, adaptation, amélioration continue et partage. Stack technique : GCP – GKE / Kubernetes – Terraform – Git – Jenkins – Python – Cloud Monitoring – Cloud Logging – IAM – VPC – Cloud Armor – Security Command Center
Offre d'emploi
Ingénieur Devops Kubernetes H/F
Publiée le
CI/CD
DevOps
Gitlab
36 mois
45k-53k €
450-500 €
Hauts-de-Seine, France
Télétravail partiel
AMAGO IT recherche pour l'un de ses clients dans le cadre d'une prestation de longue durée en IDF un : Devops Senior Kubernetes H/F Mission détaillée : ● Mise en œuvre de solutions de sécurisation du socle SSO/LDAP, garantissant la conformité et la fiabilité des accès. ● Déploiement avancé de Kubernetes pour l’orchestration de conteneurs, la scalabilité des applications et la résilience des déploiements. ● Maîtrise de l’architecture Cloud Native, avec un accent sur l’observabilité, la sécurité et la haute disponibilité dans des environnements Kubernetes. ● Conception d’infrastructures as-code avec Terraform, intégrées aux workflows de déploiement et de scaling dynamique. ● Mise en place de pipelines CI/CD robustes (GitLab CI/CD, Bitrise, Codemagic, Jenkins, Azure DevOps, GitHub Actions) pour automatiser tests, builds et déploiements multienvironnements. ● Utilisation de Docker pour la conteneurisation et l’optimisation des cycles de développement. ● Expérience multi-cloud sur Azure et Google Cloud Platform (GCP), incluant le déploiement et la gestion de clusters managés (AKS, GKE) ainsi que le développement de Cloud Functions
Offre d'emploi
Expert Kubernetes / Anthos Projet Cloud & Edge Computing-ile de France (H/F)
Publiée le
Agile Scrum
Ansible
Cloud
1 an
Île-de-France, France
Contexte du besoin Dans le cadre d’un projet stratégique de mise en place d’un Cloud hybride basé sur Anthos / Kubernetes , nous recherchons une expertise senior afin d’accompagner le déploiement, l’industrialisation et le support de la plateforme sur des infrastructures Edge. Mission L’expert interviendra au sein d’une équipe Cloud en méthodologie Agile, et sera responsable de : La mise en œuvre d’Anthos / Kubernetes sur des infrastructures Edge Computing hybrides (cloud public + infrastructures locales). Le déploiement complet des environnements , du développement jusqu’à la production. La mise en place de l’automatisation via Ansible et Terraform . La rédaction des documentations techniques et la montée en compétences des équipes infrastructure. Le support opérationnel de la solution en production. L’ accompagnement des équipes projets sur les bonnes pratiques Kubernetes / Anthos. Livrables Environnements déployés (dev → prod) Services automatisés et monitorés Documentation technique complète Compétences & Expertise recherchées +5 ans d’expérience confirmée en Kubernetes , Anthos , et environnements Cloud / DevOps . Très bonne maîtrise de Google Anthos . Excellente connaissance de Terraform et Ansible . Bon niveau sur les outils CI/CD ( GitLab CI ). Compétences solides en virtualisation , Linux et scripting . Connaissance des méthodes Agile (Scrum) . Anglais professionnel dans un contexte international.
Offre d'emploi
Ingénieur DevOps GCP/MLOps
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
MLOps
1 an
48k-50k €
480-510 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets stratégiques orientés Data & Intelligence Artificielle, nous recherchons un Ingénieur DevOps GCP/MLOps intervenant sur l’ensemble du cycle de vie des solutions : design, build et run . Vous intégrerez une équipe dédiée au périmètre DATA, en collaboration étroite avec les squads métiers. ✅ Vos missions Conception, gestion et automatisation d’infrastructures Cloud sur GCP Mise en place et optimisation de chaînes MLOps : collecte et préparation de la donnée, feature engineering, entraînement, déploiement, monitoring et amélioration des modèles Industrialisation des pipelines CI/CD et automatisation des déploiements Maintien en condition opérationnelle des plateformes et applications Gestion du cycle de vie applicatif Analyse et résolution d’incidents d’infrastructure Rédaction des procédures et documentation technique ✅ Profil recherché Expérience confirmée en tant qu’Ingénieur DevOps ou MLOps sur GCP (obligatoire) Maîtrise de Terraform (y compris en environnement restreint / air-gapped idéalement) Solides compétences en scripting, automatisation et normalisation Connaissance des pratiques CI/CD, observabilité et monitoring Capacité à intervenir en production (MCO / MEP) ✅ Environnements techniques Cloud : GCP (AWS apprécié) MLOps / IA : Kubeflow, TensorFlow, PyTorch, notebooks, Python Containerisation & orchestration : Kubernetes, Docker, ArgoCD, EKS (atout) CI/CD : Jenkins, Helm, Artifactory, Container Registry IaC : Terraform Monitoring & logs : ELK, OpenSearch, Grafana, Cloud Monitoring / Logging ✅ Soft Skills Rigueur, autonomie et sens du service Aisance relationnelle et travail en équipe Réactivité, partage et communication Gestion du stress et capacité de conseil
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
2350 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois