L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 096 résultats.
Mission freelance
Ingénieur Low Code & Automatisation – Power Platform - full remote
Net technologie
Publiée le
Power Apps
Power Automate
Power Platform
3 mois
400-450 €
France
Nous recherchons un(e) Ingénieur Low Code / Automation pour piloter la migration d’un écosystème applicatif de Google Workspace vers Microsoft Power Platform . 🎯 Objectif : structurer, industrialiser et faire évoluer les usages Power Apps / Power Automate à l’échelle de l’organisation. 🚀 Missions Pilotage de la migration AppSheet / Apps Script → Power Platform Conception de l’architecture et des building blocks Développement d’applications Power Apps (low-code corporate) Accompagnement et coaching des citizen developers Mise en place de la gouvernance et gestion du cycle de vie des applications Définition de la stratégie d’intégration (connecteurs, SAP, outils corporate) Mise en place d’outils de suivi (usage, licences, incidents) Encadrement et accompagnement des équipes du Global Competence Center
Offre d'emploi
Expert data H/F
HAYS France
Publiée le
Monaco
Vos missions sont les suivantes : Accompagner la modernisation de l'environnement data aujourd'hui basé sur MyReport et de nombreux fichiers Excel. Mettre en place une architecture plus fiable et automatisée pour centraliser et structurer la donnée. Participer au choix de la future plateforme data et aux premières étapes de son implémentation. Construire les premiers flux de données (ETL/ELT) et organiser les modèles de données. Produire des tableaux de bord fiables pour le comité de direction et les équipes métiers. Améliorer la qualité, la cohérence et la disponibilité de la donnée. Préparer l'arrivée de cas d'usage IA (prévisions, automatisations).
Offre d'emploi
Consultant BI - Power BI-Cash Management
AVALIANCE
Publiée le
Cash Management
Microsoft Power BI
Tableau software
3 ans
40k-45k €
400-610 €
Montrouge, Île-de-France
Equipe : Une 10ne de personnes réparties entre BA, dév, profils orientés data / IA Contexte : Besoin de renforcer l'équipe pour un projet autour du cash management et particulièrement la partie STP Profil recherché : Profil BI transverse mais orienté décisionnel Intervention sur les moteurs de paiement > Intervention sur la partie STP, tu collectes de l’info, tu traites, tu nettoies et tu synthétise pour donner des rapports propres, carrés et lisibles. Cela demande quelqu’un qui puisse être autonome rapidement et organisé car besoin de rapports journaliers et mensuels, donc besoin de quelqu’un orienté résultats et automatisation
Offre d'emploi
Data Engineer Databricks
ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark
Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Offre d'emploi
Data Scientist
R&S TELECOM
Publiée le
Agent IA
Google Cloud Platform (GCP)
Python
6 mois
Corenc, Auvergne-Rhône-Alpes
Contexte de la mission : Pour notre client dans le domaine bancaire, nous recherchons un profil de Data Scientist Tâches à réaliser : Piloter et réaliser des projets de data sciences / intelligence artificielle directement avec les métiers, sous supervision du tech lead data scientist (data préparation, modélisation, data visualisation, normes gestion de projet) Coacher des étudiants dans la réalisation de POC Réaliser des actions d’acculturation et d’animation Accompagner les métiers à la réalisation de prompt, déploiement de LLM, agents/assistants Participer à la mise en place de l’environnement technique (sous GCP notamment) et des méthodes de gestion de projet Réaliser la Maintenance en Condition Opérationnelle des cas d’usages DS/IA industrialisés Collaborer et participer activement à la vie du service et du département et à l’amélioration continue de son fonctionnement Les actions réalisées s’inscrivent dans un cadre règlementaire et normatif, tant d’un point de vue sécurité des systèmes d’information que conformité, RGPD, IA Act et éthique La mission implique également une compréhension et une traduction fonctionnelle des activités et processus bancaires, une connaissance générale des produits et services bancaires serait donc un plus Compétences recherchées : Obligatoires : · Python · SQL · Capacité à animer des ateliers, à fédérer autour des sujets Data/IA, à vulgariser pour des publics néophytes Optionnelles : · Expérience sur GCP · Expérience en chef de projet Expérience nécessaire : Minimum 5 années d’expérience en data science (ML, DL, LLM) (profil ITS : Hors grille) Langues : Français Date de démarrage : ASAP Localisation : Locaux du client situés à Corenc (Grenoble) Possibilité d’interventions hors site Client : OUI (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : OUI (Environ une fois par mois) Autre matériel requis : NON
Offre d'emploi
Data Engineer H/F
█ █ █ █ █ █ █
Publiée le
Python
SQL
Terraform
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Chef de chantier Data Centers (CVC) / (CFO/CFA)
AGH CONSULTING
Publiée le
Gestion de projet
Telecom
6 mois
Sequedin, Hauts-de-France
Vos principales missions, au coeur de l'action : o Responsable du bon déroulement des chantiers de construction de datacenters o Gérer et coordonner les travaux électriques et génie climatique (CVC/CFO/CFA) sur les chantiers de construction de data centers o Coordonner les interventions avec les différents corps de métiers et les partenaires externes o Encadrer les équipes sur le terrain ainsi que les sous-traitants o Assurer le respect des normes de sécurité, de qualité et de délais Au sein de notre entreprise, l'esprit d'équipe est aussi important que la technique : o Vous intégrerez une équipe à taille humaine où l'entraide, le partage d'expertise et la bonne ambiance sont primordiaux. Nous réussissons collectivement. o Nous agissons pour la mixité et l'inclusion des personnes en situation de handicap, notamment en octroyant des CESU-handicap préfinancés. o Engagez-vous pour des causes qui vous tiennent à coeur grâce au mécénat de compétences financé par l'entreprise (jusqu'à 6 jours/an). o Votre carrière évolue : nous formons et privilégions la promotion interne.
Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580
Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark
1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Offre d'emploi
Business Analyst Senior – Spécifications Fonctionnelles / JIRA
OMICRONE
Publiée le
Backlog management
Business Analyst
JIRA
2 ans
40k-45k €
400-500 €
Île-de-France, France
🚀 Nous recrutons un Business Analyst Senior – Spécifications Fonctionnelles / JIRA Tu es passionné par l’analyse fonctionnelle, la structuration des besoins et la rédaction de spécifications détaillées ? Tu maîtrises parfaitement JIRA et les User Stories ? Cette opportunité est faite pour toi 👇 🎯 Contexte de la mission Dans le cadre du déploiement d’une solution de surveillance des communications électroniques (messageries, messages écrits et communications vocales), nous recherchons un Business Analyst senior capable de transformer les besoins métiers en spécifications fonctionnelles complètes et exploitables. 🛠 Tes missions • Analyser et formaliser les besoins à partir des tickets JIRA • Rédiger des spécifications fonctionnelles détaillées • Produire des User Stories structurées avec critères d’acceptation • Maintenir et structurer le backlog fonctionnel • Réaliser des rétro-spécifications à partir de livrables déjà en production • Garantir la traçabilité documentaire et la cohérence fonctionnelle • Participer aux ateliers et revues fonctionnelles avec les équipes métiers et techniques • Contribuer à l’amélioration continue des pratiques de spécification 👤 Profil recherché • Expérience solide (6 ans minimum) en Business Analysis • Très forte expertise en rédaction de spécifications fonctionnelles et User Stories • Maîtrise de JIRA et de la gestion de backlog • Excellent niveau rédactionnel en français et en anglais • Capacité à travailler en autonomie dans un environnement exigeant • Formation école d’ingénieur informatique (CPGE appréciée) ⚠️ Important • Le besoin est orienté analyse fonctionnelle et documentation • Pas de rôle de gestion de projet attendu (PM / PO / Scrum Master) • Forte attention portée à la qualité rédactionnelle et au niveau d’analyse 📍 Localisation : Île-de-France 📅 Démarrage : ASAP ⏳ Mission longue durée
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : a10nad07cd
Offre d'emploi
Développeur PowerApps + PowerAutomate + PowerBI
LOVOTECH
Publiée le
Microsoft Power BI
Power Apps
Power Automate
12 mois
39k-43k £GB
370-430 £GB
Bordeaux, Nouvelle-Aquitaine
Conception et développement d’applications Power Apps et de flux Power Automate associés, avec ou sans Dataverse, en respectant les standards et bonnes pratiques en vigueur. · Analyse et prise en compte des besoins (ateliers, cadrage, chiffrage/estimation), puis accompagnement des équipes métiers et IT jusqu’à la mise en service. · Intégration avec l’écosystème M365/SharePoint et les services connexes (connecteurs, permissions, gouvernance), dans le respect des exigences de sécurité et de conformité. · Réalisation des tests (unitaires, intégration, non-régression) et contribution à la recette utilisateur : préparation des jeux de tests, correction des anomalies, support à la validation. · Support et maintien en condition opérationnelle des solutions existantes : diagnostic, correction, optimisation, gestion des incidents/demandes, et contribution à l’amélioration continue. · Rédaction et mise à jour de la documentation (technique et/ou utilisateur) : dossiers de conception, procédures d’exploitation, guides, et capitalisation. · Transfert de compétences auprès des membres de l’équipe (pairing, revues, partage de bonnes pratiques) afin d’assurer l’autonomie et la pérennité des développements. La prestation s’effectue en interaction avec les équipes du Centre d’Expertise SharePoint et les parties prenantes (métiers, MOA, sécurité, exploitation). Un reporting régulier de l’avancement, des risques et des points de blocage est attendu, ainsi que le respect des procédures internes (gestion des changements, validations, mises en production) et des exigences de qualité (maintenabilité, performance, traçabilité, documentation
Mission freelance
Ingénieur Électronique R&D – USB-C Power Delivery (H/F)
EASY PARTNER
Publiée le
USB
3 mois
500-600 €
75001, Paris, Île-de-France
🎯 Vos missions🔧 Court terme (prioritaire) Participer au bring-up d’un nouveau design électronique Implémenter et valider la chaîne USB-C Power Delivery Intervenir sur le contrôleur TI TPS65988D Debug, validation et mise en route des cartes électroniques 🚀 Moyen / long terme Contribuer à la vérification de design électronique Réaliser des tests de fiabilité des sous-ensembles Participer à l’amélioration continue des designs hardware Travailler en lien avec les équipes R&D (hardware / système) 🔧 Environnement technique Interfaces : USB-C / Power Delivery (PD) Composants : TI TPS65988D Activités : bring-up, debug hardware, validation Outils : oscilloscope, analyseurs logiques, outils de debug électronique Contexte : dispositif médical (fortes exigences qualité / fiabilité)
Offre d'emploi
Consultant Senior Data Catalog Collibra (H/F)
ASTRELYA
Publiée le
Collibra
Data governance
IA
92800, Puteaux, Île-de-France
Votre mission : En tant que Consultant Data Catalog spécialisé Collibra, vous accompagnerez nos clients dans la structuration, l’opérationnalisation et la gouvernance de leur Data Catalog. Vous interviendrez sur des projets stratégiques visant à renforcer la maîtrise, la qualité et la valorisation des données, en vous appuyant sur les capacités avancées de Collibra Data Intelligence Platform. Votre rôle sera clé pour aider les organisations à déployer un Data Catalog robuste, gouverné, adopté et aligné avec les enjeux Data & IA Concrètement, vous allez : 1. Structurer & Opérationnaliser le Data Catalog · Définir la stratégie Data Catalog et accompagner les clients dans leur transformation Data Governance. · Paramétrer Collibra : communautés, domaines, rôles, workflows, policies, règles de qualité, operating model. · Concevoir et adapter le métamodèle Collibra : Data Domains, Data Sets, Data Elements, Data Owners, Stewards, modèles IA, indicateurs de qualité… · Mettre en place les connecteurs d’ingestion (Collibra Connect, Collibra Data Quality, ingestion automatisée). · Modéliser les objets métiers et assurer leur documentation dans Collibra. · Déployer les workflows de gouvernance (validation, certification, demandes d’accès, gestion des changements). 2. Assurer la valorisation & l’adoption du Data Catalog · Définir et déployer les cadres de Data & AI Governance. · Structurer les Data Domains, Data Objects, Data Contracts, glossaires métier et usages IA. · Accompagner les Data Owners, Stewards et équipes IT dans la prise en main de Collibra. · Concevoir des parcours d’acculturation : formations, vidéos, kits, communautés Data, webinaires. · Promouvoir les bonnes pratiques d’usage et faire évoluer la culture Data. Votre futur environnement de travail : · Data Catalog : Collibra (Data Governance, Data Quality, Lineage, Workflow, Operating Model). · Outils de documentation & IA Responsable : Model Cards, risk matrices, AI Act traceability. · Outils collaboratifs : Notion, Miro.
Offre d'emploi
Analyste d’exploitation – Proximité Télécom Datacenter
AVA2I
Publiée le
Cisco
Integrated Dell Remote Access Controller (IDRAC)
LAN
12 mois
Île-de-France, France
La mission consiste à intervenir sur des activités de proximité télécom en Datacenter Missions principales🔌 Infrastructure réseau & câblage Étude, réalisation et validation du câblage LAN Étude, réalisation et validation du câblage SAN Lecture et interprétation des plans d’urbanisation réseau Datacenter Analyse de plans de frettage 🧪 Tests & validation de liens Tests de fibres optiques et cuivre : Photométrie Réflectométrie Utilisation d’outils de mesure (Fluke, LinkRunner, FiberAlert, etc.) ⚙️ Exploitation & administration technique Configuration de cartes iDRAC / iLO Gestion des incidents et troubleshooting Commandes réseau de base : , , Configuration IP (statique / DHCP) 🖥️ Support Datacenter Utilisation d’outils DCIM Gestion des environnements techniques type Mainframe Gestion et manipulation de modules SFP / QSFP / CVR 🛠️ Environnement technique✅ Compétences indispensables LAN / SAN (niveau pratique) Outils DCIM Réflectométrie & photométrie Pack Office (Excel) ServiceNow Commandes réseau de base Gestion des incidents & troubleshooting Configuration réseau IP 🔵 Compétences optionnelles Environnements Cisco Environnements Arista 🌐 Langues Anglais : niveau pratique (technique) 🎓 Certifications obligatoires Habilitation électrique B0 / H0V obligatoire Doit être valide avant démarrage ou formation à prévoir
Mission freelance
Business Analyst Senior — Reporting Réglementaire
BEEZEN
Publiée le
Business Analyst
12 mois
400-570 €
Montreuil, Île-de-France
Je recherche un Business Analyst Senior — Reporting Réglementaire ayant plus de 15 ans d' experience pour une prestation d'accompagnement dans l´objectif de contribuer aux projets d'évolution de la solution ARS Anacredit Reportin Solutions en menant les activités de BA. La mission se déroule au sein d´une 'équipe qui contribue aux résultats de l'arrêté trimestriel au travers de d'applicatifs permettant de restituter/reporter l'information pour les filières reporting Comptabilité Général et Risque de Crédit. Des projets sont menés pour enrichir les fonctionnalités de ces applications et améliorer la qualité de service. Competences fonctionnelles indispensables Maitrise des processus de reporting reglementaire (Comptabilite Generale, Risque de Credit, arretes trimestriels) Connaissance du modele AnaCredit / SRS ou de referentiels equivalents (FINREP, COREP, RUBA) Redaction de specifications fonctionnelles detaillees, cas de tests, matrices de couverture Conduite de recette fonctionnelle (UAT, TNR) et gestion des ecarts Animation de reunions metier et interviews utilisateurs Coordination inter-equipes MOA / MOE / production Activites cles de la mission Analyse & specifications: Appropriation modele SRS · Analyse besoins utilisateurs · Validation specifications fonctionnelles Recette & evolutions: Mise en place UAT · TNR · Suivi des ecarts · Coordination release Support & coordination: Formation utilisateurs · Support fonctionnel · Liaison MOA–MOE · Suivi production Astreintes arretes: Participation aux astreintes mensuelles · Gestion incidents de production Competences techniques attendues: SQL / requetage Jira / ServiceNow Excel avance Confluence UML / BPMN Core Banking Point de vigilance : Le profil devra imperativement avoir deja vecu des clotures comptables ou reglementaires en environnement bancaire.
Mission freelance
Ingénieur Data à Niort (3 jours sur site)
NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Reconversion professionnel sur du SAP
- Avis et/ou retours d'expériences pour situations délicates en freelance
- Cdd et passage freelance
- Ajout activité micro-entreprise en attendant de créer la société
- Mission à 600 km de chez moi - Frais de double résidence
- 3 semaines qu'on ne me donne pas de date de début de mission que dois-je faire
3096 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois