L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 542 résultats.
Mission freelance
Web / Data Analyst Piano Analytics H/F/NB
Publiée le
Analyse
Google Cloud Platform (GCP)
Microsoft Power BI
210 jours
400-580 €
Île-de-France, France
Télétravail partiel
Leader des médias français , notre client recherche un Data Analyst expérimenté pour accompagner la transformation digitale de ses offres numériques. Rejoignez la Direction Data et contribuez à faire de la donnée un levier stratégique de croissance. 🚀 Vos missions : Pilotage & Reporting Créer et automatiser des dashboards Power BI pour les équipes Growth (CRM, Acquisition, Social) Recueillir les besoins métier et rédiger les cahiers des charges techniques Superviser la qualité des données et optimiser les performances des rapports existants Analyse & Insights Analyser les données Piano Analytics, Nielsen/eStat Streaming Étudier les parcours utilisateurs et la consommation vidéo (Web/App/TV) Produire des analyses mensuelles et recommandations actionnables Collaborer avec l'équipe Études pour approfondir la connaissance utilisateur Formation & Accompagnement Former et coacher les équipes internes sur Piano Analytics et les outils d'analyse Sensibiliser à l'intégration de la data dans les processus de décision Vulgariser les concepts techniques pour des équipes non-techniques Stratégie Data Définir et harmoniser les KPIs transverses pour les équipes Growth, Produit et Métiers Spécifier les prérequis de tracking pour les analyses futures Contribuer au déploiement du marqueur interne sur de nouveaux produits
Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)
Publiée le
Ansible
Google Cloud Platform (GCP)
Helm
3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Rattaché à la Global Tech & Data Platform , domaine Voice of Customer . Support fonctionnel et technique sur le produit Datahub Pipelines (data engineering). Environnement Google Cloud Platform (GCP) . Missions principales Analyser et résoudre des incidents complexes. Identifier les incidents récurrents et proposer des solutions pérennes. Traiter les demandes de services et questions des utilisateurs internes. Collaborer avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents. Accompagner les nouveaux utilisateurs (onboarding). Contribuer à l’automatisation et à l’amélioration continue des produits. Documenter et partager les résolutions pour capitaliser. Compétences techniques requises Cloud Computing : GCP (Confirmé – impératif) Data Engineering : Confirmé – impératif Observabilité & Monitoring : Datadog (Confirmé – important), Prometheus, Grafana Infrastructure as Code & Automatisation : Terraform, Ansible, Helm, Kubernetes (Confirmé – important) Scripting : Python, Bash, Go Gestion des alertes : PagerDuty
Offre d'emploi
Ingénieur Data
Publiée le
25k-30k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Vos missions ? En tant qu' Ingénieur Data , avec un profil hybrique Data et Web, vous serez en charge des missions suivantes: Analyse de besoin, rédaction de spécifications, conception de modèles de courrier Tests et recettes BA Echanges avec les métiers Rôle purement fonctionnel La stack Technique : - Directus - Javascript - Vue JS N'hésitez pas à postuler si vous vous reconnaissez : 2 ou 3 ans minimum dans la fonction d'Ingénieur Data Connaissance de la méthodologie Agile Esprit de compromis / négociation Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France
Publiée le
Big Data
Cloud
Infrastructure
6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Offre d'emploi
Ingénieur DevOps Confirmé Projet CKISA - Sophia Antipolis(H/F)
Publiée le
CI/CD
GED (Gestion Électronique des Documents)
Jenkins
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte & Mission Dans le cadre du lancement d’un nouveau logiciel destiné à la gestion de crise dans le secteur médical, nous recherchons un Ingénieur DevOps Confirmé pour intégrer une équipe de 5 à 10 personnes . La solution inclura plusieurs modules : Communication en situation de crise Gestion des patients Services bureautiques Consultation & GED Services applicatifs innovants Le DevOps sera fortement sollicité au début du projet pour installer les outils, configurer les environnements et mettre en place les CI/CD. 🛠️ Missions principales Mettre en place les pipelines CI/CD (Jenkins) Automatiser les processus de build, test et déploiement Concevoir et gérer l’orchestration Docker / Kubernetes Gérer les environnements et l’infrastructure technique Contribuer aux spécifications et à la documentation Participer aux cérémonies Agile (Scrum) Surveiller et optimiser les performances Documenter, partager et améliorer les bonnes pratiques DevOps 📦 Livrables attendus Code, scripts & charts Documentation technique Spécifications techniques 🧰 Compétences techniques indispensables 🔥 Impératives Kubernetes – Confirmé Jenkins – Confirmé ⭐ Importantes Docker / Containers – Confirmé Nexus – Junior 🔧 Autres compétences appréciées Git / Maven Splunk – OpenSearch OpenID Connect – Keycloak Bases de données relationnelles Jira – Confluence Agile Scrum Normes qualité & sécurité Expérience dans le domaine médical → plus apprécié 🌍 Langues Français courant (impératif) Anglais lu/écrit 👤 Profil recherché Bac+2/3 à Bac+5 (école d’ingénieur, master) Minimum 4 ans d’expérience en DevOps Expérience déjà prouvée en : Automatisation et pipelines CI/CD Gestion de configuration Infrastructure Docker/Kubernetes Excellent communicant, autonome, collaboratif Esprit agile, adaptabilité, curiosité technique Capacité à monter en compétence rapidement
Mission freelance
Lead data en Ile de France
Publiée le
Apache Airflow
AWS Cloud
DBT
6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)
Publiée le
Ansible
Datadog
Google Cloud Platform (GCP)
3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Attaché à la Global Tech & Data platform, dans le Domain Voice of Customer tu rejoins une équipe pluridisciplinaire d’assistance à nos clients internes (BU, plateformes, …) dont la mission principale est de prendre en charge toutes les sollicitations en provenance des utilisateurs de la Tech&Data (Incidents, demandes de services, questions). Tu seras rattaché directement à l'activité de l'un de nos produits de data engineering: Datahub Pipelines pour lequel nous avons besoin de support fonctionnel (compréhension du logiciel back et front), technique (comprendre et régler des problèmes d'implémentations, notamment dans la stack technique des produits digitaux via terraform). L'univers de développement est complètement encadré dans GCP. Missions principales : 🛠 Tu analyses et résous des incidents complexes 🔍 Tu identifies les incidents récurrents 🤝 Tu traites les demandes de services 🤝 Tu collabores avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents 🤝 Tu collabores avec l'équipe onboarding et advocacy pour l'accompagnement des nouveaux utilisateurs 📊 Tu contribues à l'automatisation et à l’amélioration continue du/des produits 📝 Tu documentes et partages nos résolutions pour capitaliser 2. Compétences techniques requises : ✅ Cloud Computing : GCP ✅ Observabilité & Monitoring : Datadog, Prometheus, Grafana, ✅ Automatisation & Infrastructure as Code : Terraform, Ansible, Helm, Kubernetes (K8s) ✅ Scripting : Python, Bash, Go ✅ Gestion des alertes : PagerDuty 3. Soft Skills recherchées : ⭐ Esprit analytique : Capacité à détecter rapidement des problèmes et à les résoudre efficacement. ⭐ Proactivité & autonomie : Capacité à anticiper les incidents avant qu’ils n’impactent les services. ⭐ Collaboration : Travail en équipe avec les équipes produit ⭐ Sens du service client : la satisfaction de nos clients est ta priorité Un minimum de 2 jours sur site est exigé
Mission freelance
Data analyst Power BI / Cognos Orleans. 2 jours de TT.
Publiée le
Cognos
Microsoft Power BI
12 mois
400-450 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Data analyst Power BI / Cognos Orleans. 2 jours de TT. Environnement technique : Microsoft Power BI Desktop, Report server IBM COGNOS Analytics C11. Base de données : HP Vertica 10.1. Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il exécutera les missions suivantes : Autour de Power BI : être le point de contact technique des utilisateurs finaux ou des réalisateurs de Power BI Desktop, réalisation de reporting complexes Conception et implémentation de Datamarts Autour de COGNOS : analyse d’expression de besoin, création et évolution de rapport / Conception de pack Le poste a une dimension technique mais aussi une dimension relationnelle forte autour de l’analyse des besoins, leur recette et le suivi en mode projet. Connaissances organisationnelles : Suivi de projet en tant que contributeur MOE Relation avec un infogérant Relation avec des équipes sécurité / réseau /etc. Connaissances techniques : Le profil recherché doit maitriser les solutions techniques suivantes : Power BI Desktop / Power BI Report Server / DAX / RLS - expérience : 2 années minimum Modélisation de données : constitution de datamart - expérience : 4 années minimum COGNOS C11 : conception de rapport - expérience : 1 années minimum COGNOS C11 : framework - expérience : 1 années minimum Optimisation SQL - expérience : 4 années minimum Idéalement des connaissances sur l’administration fonctionnelle ou technique d’une plateforme Power BI Report server (on premise) Il faut la double compétence Power Bi / Cognos et un très bon relationnel.
Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Mission freelance
Profil Data (Data Analyst ou Data Scientist)
Publiée le
Microsoft Excel
PowerBI
Python
2 mois
100-500 €
Paris, France
Pour le besoi de mon client ,je suis à la recherche d’ un profil expérimenté, autonome, avec des compétences DATA forte (Data analyst ou Data scientist senior) Analyser les parcours d’achat des usagers et leurs besoins dans différents types de gares. Construire une planification fiable des besoins en canaux de distribution à horizon 2027 à partir d’un modèle dynamique. Faire évoluer ce modèle vers un outil d’anticipation permettant de projeter les besoins par gare à moyen terme. Compétences attendues : maîtrise de Python, SQL, Excel et Power BI.
Mission freelance
Data Scientist
Publiée le
API
autonomie
Python
12 mois
Hauts-de-Seine, France
Télétravail partiel
Poste : Data Scientist Senior (>5 ans d’expérience) Objectif : Renforcer une équipe dédiée à la modélisation mathématique, intervenant sur l’optimisation, la simulation, l’analyse de performance, le développement de modèles et outils applicatifs dans un environnement multi-application. Responsabilités principales : Encadrement & supervision : Accompagner un Data Scientist junior, définir les standards méthodologiques, valider approches et modèles, garantir la cohérence des travaux. Développement & modélisation : Développer en Python, créer des APIs, intégrer des modèles, manipuler équations mathématiques, utiliser la librairie HiGHS pour l’optimisation (contraintes, optimisations linéaires/mixte). Contrôle qualité & validation : Revoir le code, auditer l’architecture, vérifier la cohérence des données, valider la robustesse des modèles, challenger les résultats, approuver les livrables. Expertise & conseil : Apporter une expertise sur la modélisation, faire des recommandations méthodologiques, effectuer une veille technologique, capitaliser les bonnes pratiques. Communication & coordination : Présenter les validations, faire le lien entre équipes techniques et direction, participer aux réunions, documenter les processus, contribuer à la montée en compétences du junior. Compétences requises : Maîtrise avancée de Python (APIs, librairies, équations) Maîtrise du solveur HiGHS ou équivalent pour l’optimisation linéaire/quadratique Solide background en mathématiques, physique, modélisation et statistiques Capacité à gérer plusieurs modèles simultanément Excellentes compétences en communication, forte autonomie, posture de référent Compétences appréciées : Expérience avec des modèles mathématiques à grande échelle Aisance en revue méthodologique et cadrage scientifique Aucune connaissance métier spécifique nécessaire
Offre d'emploi
Testeur Fonctionnel Confirmé – Application Web & Mobile -Marseille + Télétravail(H/F)
Publiée le
Git
Méthode Agile
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
🎯 Contexte de la mission Dans le cadre du développement de l’application ENEJ (web & mobile), dédiée au secteur éducatif du primaire au supérieur, nous recherchons un Testeur Fonctionnel Confirmé . Le produit évolue en mode Agile , avec des releases toutes les 4 semaines, dans un environnement hautement sécurisé (ISO27001 / SecNumCloud) . 🛠️ Missions principales Réaliser les tests fonctionnels : intégration, non-régression, E2E Tester les nouvelles fonctionnalités à chaque livraison Contribuer à des tests plus techniques : sécurité, accessibilité Rédiger les cahiers de tests et les dossiers de résultats Créer et suivre les tickets Git en cas d’anomalies Participer aux rituels Agile (daily, sprint review, sprint planning) S’assurer de la conformité fonctionnelle et technique du produit Respecter les standards de sécurité de l’environnement certifié 📄 Livrables attendus Cahier de tests Résultats de tests Tickets d’anomalie documentés (Git) Reporting d’avancement ⚙️ Compétences techniques requises Test fonctionnel – Confirmé (Impératif) Test technique – Confirmé (Souhaitable) Bonnes pratiques Agile Connaissance des environnements sécurisés (un plus) Français professionnel (impératif)
Mission freelance
Manager Data / R&D (H/F) - 81
Publiée le
Big Data
3 mois
460-750 €
Castres, Occitanie
Télétravail partiel
Context Dans le cadre d’un programme de transformation data au sein de la R&D, notre client souhaite être accompagné dans la définition de sa stratégie data avec un focus fort sur la modélisation. La mission vise à établir un état des lieux précis, à définir une vision cible réaliste et ambitieuse, puis à construire une roadmap priorisée sur les 12 à 24 prochains mois. Mission 1. Diagnostic & analyse * Réaliser un état des lieux rapide et structuré des usages actuels de la donnée et des pratiques de modélisation au sein de la R&D. * Identifier les forces, faiblesses, opportunités et irritants dans les processus, outils et interactions. 2. Vision & stratégie * Définir une vision cible data claire couvrant : * La gestion et l’exploitation de la donnée, * Les pratiques de modélisation et de data science, * Les besoins associés : compétences, organisation, méthodes, technologies. * Proposer un cadre stratégique cohérent avec les ambitions R&D du groupe. 3. Roadmap Data * Construire une roadmap data 12–24 mois comportant : * Les initiatives prioritaires, * Les projets structurants liés à la modélisation et à la donnée, * Les quick-wins permettant un impact rapide, * Les critères de priorisation et de pilotage. 4. Animation & restitution * Animer des ateliers avec les équipes R&D (scientifiques, data, IT). * Faciliter la convergence vers une vision commune. * Produire des recommandations concrètes, opérationnelles et priorisées. * Restituer les livrables à la direction R&D et/ou Data.
Offre d'emploi
Architecte Data & IA H/F
Publiée le
75k-90k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : g2fqzc6m6z
Offre d'emploi
Ingénieur DevOps Confirmé Accompagnement Évolution Produit- Sophia Antipolis (H/F)
Publiée le
CI/CD
Kubernetes
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre de l’évolution continue d’un produit stratégique, nous recherchons un Ingénieur DevOps Confirmé pour accompagner la construction, l’automatisation et l’optimisation des environnements techniques. La mission est orientée Kubernetes , CI/CD , Infrastructure as Code et observabilité . 📦 Livrables attendus Construction et maintien des environnements Automatisation complète des chaînes de delivery Documentation technique associée 🛠️ Missions principales Concevoir, déployer et administrer des clusters Kubernetes Intégrer et maintenir les outils de l’écosystème Kubernetes : Istio, Helm, ArgoCD, Prometheus, Grafana… Mettre en place et améliorer les pipelines CI/CD (GitLab CI, Jenkins, ArgoCD…) Surveiller les performances, la sécurité et la disponibilité des infrastructures Automatiser les tâches d’exploitation (Bash, Python, Terraform, Ansible…) Collaborer avec les équipes de développement pour optimiser les déploiements Assurer une veille technique et l’amélioration continue des pratiques DevOps 🧰 Compétences techniques requises (impératives) Kubernetes – Confirmé Jenkins – Confirmé Anglais professionnel – Impératif Compétences complémentaires recherchées Helm, Istio, ArgoCD, FluxCD Monitoring & observabilité : Prometheus, Grafana, Alertmanager, Loki CI/CD : GitLab CI, Jenkins, Argo Workflows IaC : Terraform, Ansible
Mission freelance
Chef de Projet Technique DATA
Publiée le
BI
Coordination
Data analysis
6 mois
Paris, France
Télétravail partiel
Dans le cadre de l’évolution de ses systèmes décisionnels, nous recherchons un Chef de Projet Technique confirmé. Vous rejoindrez une équipe Data engagée dans l’optimisation des flux décisionnels et la maîtrise des impacts transverses. Votre rôle Vous structurez et coordonnez les analyses d’impacts, pilotez les adaptations nécessaires et sécurisez l’avancement opérationnel. Vos responsabilités • Centraliser et analyser les impacts sur les flux, référentiels et composants Data. • Piloter les ateliers techniques et les échanges avec les équipes Data, IT, et Métiers. • Construire une vision consolidée des risques, dépendances et actions à engager. • Maintenir le planning et coordonner les contributeurs internes. • Préparer les livrables de reporting et les comités projet. • Garantir la qualité des analyses produites et la fiabilité des éléments de décision.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Calcul de l'indemnité de la rupture conventionnelle
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
2542 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois