Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 770 résultats.
Offre d'emploi
Développeur FullStack .Net/Angular
VISIAN
Publiée le
.NET
Angular
API
3 ans
40k-60k €
400-550 €
Paris, France
Contexte Au sein d'une organisation internationale, l'équipe prend en charge toutes les demandes et besoins IT de toutes les BU qui n'ont pas d'équipes de DEV dédiées (Ex: HR, Legal, Audit, Sécurité, IS, Communication…). En résulte un panel fonctionnel et technique large et varié nécessitant des profils avec une bonne capacité d'analyse et de compréhension, en plus des qualités techniques recherchées. Descriptif du poste Vous interviendrez comme développeur au sein d'une équipe de 10 à 12 personnes, sur les différentes applications du périmètre. Ces applications s'appuient sur les technologies suivantes : C# Angular Python Clouds Azure et AWS SQL & NoSQL databases (SQL Server, Postgres, CosmosDB, etc.) Une attention particulière sera donnée au Clean Code et Software craftsmanship.
Mission freelance
Platform engineer : PYTHON Azure + de 9 ans XP
Codezys
Publiée le
Azure
Azure DevOps Services
Databricks
12 mois
490-550 €
Niort, Nouvelle-Aquitaine
Notre plateforme data science sur Azure est en construction. Le platform engineer a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. Les missions de l'équipe sont : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers Objectifs et livrables La Société devra fournir les prestations suivantes : En tant que platform engineer sur notre plateforme CLAUD.IA. Assurer un rôle de : - concepteur et de développeur de pipelines CI/CD Data et Machine Learning mise en œuvre dans le cycle de vie des produits data science - concepteur et de développeur de pipelines CI/CD de création de ressources Azure, de web applications et d'environnements de travail à destination des data scientists
Offre d'emploi
Data Quality Analyst senior
FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)
6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
Offre d'emploi
Ingénieur infra cyber sécurité
TDS
Publiée le
Fortinet
JIRA
Linux
1 an
Issy-les-Moulineaux, Île-de-France
Contexte, description du projet : Au sein de la DSI de la Branche Grand Public et Numérique, la Direction de la Maîtrise des Risques SI est la garante de l’identification et du déploiement des bonnes pratiques en matière de sécurité SI (incluant l’exploitation des outils de cybersécurité, la gestion des identités et des accès, la détection des incidents de sécurité, …), ainsi que de la mise en place des outils de contrôle. Vous serez rattaché à l’équipe « Prévention », équipe à part entière du Centre de sécurité Opérationnelle (CSO), pour contribuer à la mise en œuvre, l’évolution, et l’exploitation quotidienne des outils de cybersécurité. Notamment : • Déployer et opérer les AV/EDR et Scanner de vulnérabilités • Assurer le MCO de ces outils de sécurité • Produire les reporting liés à la gestion des EDR/AV et à la gestion des vulnérabilités • Assurer une veille technologique en matière de méthodes et outils de sécurité • Contribuer au traitement des incidents de sécurité • Assurer l’interfaçage avec le support éditeur pour le traitement des incidents et des évolutions • Définir et implémenter les politiques de scan de vulnérabilités • Comprendre les enjeux et contextualisation des données • Déployer le service de gestion des vulnérabilités et l’implémenter techniquement • Gérer les assets • Gérer les scans (Actif, passif, WAS, AWS, AZURE, Authentifié ou non) • Gérer les rapports d’analyse (Dashboard, Reports) • Structurer l’ordre de correction • Apporter un support aux clients à la prévention et à la remédiation • Exercer une veille technologique pour anticiper les risques et les menaces • Analyser les menaces et les risques dans le contexte • Apporter un appui méthodologique dans les standards actuels de sécurité et qualité • Faire de l’amélioration continue des processus • Assurer la qualité des livraisons de service • Reporter auprès du responsable du service et des clients du service • Rédiger les alertes et incidents de sécurité (tickets ; Jira, ServiceNow) et de rapports d’analyse. Environnement et conditions techniques : • McAfee/Trellix, Eset, Kaspersky, Sophos, Cylance, Sentinel One, Carbon Black, Tehtris… • Qualys, Dynatrace App-Sec, Tenable, CyberWatch, Bitsight, Dependcy Track… • Fortinet, Palo-Alto, Stormshield, Mikrotik… • Nessus, Cyberwatch, Armis, Rapid7… • Linux (Redhat, CentOS, Debian, Windows) • VMware VCD, KVM, OVirt, NSX-T, AWS (déploiement, services, tarification) • Scripting/Développement (bash, perl, python, java) • Supervision (Nagios, ServiceNav, Zabbix, Cloud-watch) • Outils de ticketing (ServiceNow, Jira) Objectifs et Enjeux de la prestation : Apporter un support aux clients internes et projets sur les sujets sécurité des infrastructures ( On-promise et Cloud) : • Assurer un support et une expertise technique sur le choix des contrôles de sécurité adaptés aux besoins BGPN et conformes aux politiques et directives sécurité du Groupe • Anticiper les besoins des clients et les évolutions de la plateforme. • Apporter l’expertise technique afin de réaliser le déploiement/Accompagner de l’EDR (Tehtris) et l’AV (Trellix) sur l’ensemble du parc serveurs BGPN • Apporter l’expertise technique afin de réaliser qualifier les alertes de vulnérabilités et apporter l’assistance à l’analyse pour l’ensemble du parc serveurs BGPN Compétences Techniques : • Bonne connaissance des EDR/AV (expérience sur un projet de déploiement d’une technologie leader souhaitable) • Bonne connaissance des outils de gestion des vulnérabilités • Bonne connaissance des infrastructures SI globalement • Bonne connaissance des projets applicatifs • Bonne connaissance des pratiques SAFE Livrables : 1. Rédaction des Procédures, modes opératoires, processus, fiches reflexes ... 2. Réalisation des différents reporting (KPI, Dashboard...)
Offre d'emploi
Data Analyst Dataiku/Tableau/Script Python
OBJECTWARE
Publiée le
Dataiku
Python
Tableau Desktop
3 ans
40k-61k €
400-550 €
Île-de-France, France
Prestations demandées Production de dashboards Tableau • Exploration des données et mise en place de KPI pertinents, en concertation avec le Top management d’A3I et les offering managers • Création de dashboards permettant un suivi de l’adoption, de l’usage et de la performance des offres • Optimisation des dashboards existants (lisibilité, structuration). Préparation de données • Transformation et enrichissement des données via Dataiku. • Exploration et manipulation SQL sous PostgreSQL. • Contribution à la gestion de la qualité des données. Compétences techniques requises • Data Visualisation • Expertise Tableau • Très bonne maîtrise de SQL • Bonne maîtrise de Dataiku (préparation, traitements Python, recettes avancées). Soft Skills • Autonomie. • Rigueur et sens de la qualité. • Capacité d’analyse. • Force de proposition • Excellentes compétences de communication (écrite & orale). • Capacité à travailler en transversal, à fédérer et à challenger les parties prenantes. • Capacité à proposer et maintenir des standards dataviz cohérents entre les différentes offres IA.
Offre d'emploi
Expert Neoload (H/F)
STORM GROUP
Publiée le
Angular
DevOps
Openshift
3 ans
45k-50k €
400-450 €
Nantes, Pays de la Loire
Le poste consiste à renforcer une équipe qui gère l’homologation technique des applications à destination de nos clients de la banque à distance, par un profil « Testeur technique/intégrateur ». Les périmètres d’activités de l’équipe sont : Valider les exigences non fonctionnelles/Normes des applications de la banque à distance : Bon fonctionnement, IHM Web/mobile, Performance, Charge, exploitabilité, MCO, installation, Scalabilité … Identifier les goulets d'étranglement/dysfonctionnements et apporter une expertise (Améliorations/Préconisations, POC …) Accélérer le « TimeToMarket » en automatisant / industrialisant nos processus & tests techniques. Développer des outils techniques transverses Être en support auprès des « Dev » et des « Ops », partager les bonnes pratiques. Sous pilotage d’un responsable d’intégration, la mission consiste à réaliser les tests techniques des changements confiés à l'équipe avant leur mise en production. L’activité de l’équipe est pilotée par la méthodologie Agile (Mode hybride Kanban/Sprint). Sur l’activité « Tests techniques » : prendre connaissance du changement et de son contexte technique contribuer au plan de tests proposé (Stratégie de tests) préparer les infrastructures de tests réaliser les tests techniques analyser les résultats contribuer au diagnostic en cas de dysfonctionnement rédiger les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production constituer ou mettre à jour le patrimoine de tests réutilisables pour les intégrations ultérieures effectuer le reporting vers le Responsable Intégration contribuer à l’amélioration continue en particulier sur l’activité tests Industrialiser les tests via des PIC.
Mission freelance
Data Engineer Azure / IA
Sapiens Group
Publiée le
Azure
Azure DevOps
Databricks
12 mois
400-450 €
Lille, Hauts-de-France
Ingénierie Data Concevoir et développer des pipelines de données (ETL / ELT) . Collecter, transformer et intégrer des données provenant de différentes sources (API, bases de données, fichiers, streaming). Mettre en place et optimiser des flux de données robustes et scalables . Garantir la qualité, la fiabilité et la traçabilité des données . Concevoir et maintenir des modèles de données adaptés aux usages analytiques. Plateforme et outils Data Développer des solutions sur des plateformes Big Data et Cloud (ex : Databricks). Automatiser les workflows et déploiements via CI/CD (Azure DevOps) . Optimiser les performances des traitements Python et SQL . Participer à la mise à disposition des données pour les outils de visualisation et de reporting (Power BI) . Intelligence Artificielle appliquée à la Data Utiliser des outils d’IA pour assister le développement (génération et optimisation de code). Mettre en place des processus automatisés d’analyse et de transformation de données basés sur l’IA. Contribuer à l’intégration de modèles d’IA ou de Machine Learning dans les pipelines de données. Utiliser l’IA pour la documentation automatique, la détection d’anomalies et l’analyse exploratoire des données . Collaboration et méthodologie Travailler en méthodologie Agile / Scrum . Collaborer avec les équipes Data, BI, Data Science et métiers . Participer aux rituels Agile (daily, sprint planning, rétrospective). Contribuer aux bonnes pratiques de gouvernance et de gestion des données .
Mission freelance
Senior BackEnd Developer
Codezys
Publiée le
Azure
DevOps
Microsoft Fabric
12 mois
Paris, France
Rejoignez une initiative data à fort impact au sein d'un groupe leader dans les services environnementaux. Nous développons une Industrial AI Platform conçue pour traiter, analyser et visualiser en temps réel des séries temporelles provenant de sites industriels. La plateforme repose sur Microsoft Fabric et exploite les langages Python ainsi que les services Azure pour offrir aux équipes industrielles des analyses avancées et des insights approfondis. Vous intégrerez une équipe pluridisciplinaire composée de : 1 Product Manager 1 Product Owner 1 Lead Developer 3 Data Developers 1 spécialiste DevOps Nous recherchons actuellement un Senior Back-End Developer afin de renforcer notre équipe de développement principale. Objectifs et livrables > Responsabilités clés Concevoir, développer et optimiser des pipelines de données et des frameworks de traitement en utilisant Microsoft Fabric et Python . Travailler avec des séries temporelles pour permettre des analyses en temps réel et historiques des opérations industrielles. Collaborer avec le Product Owner et les acteurs métiers pour transformer leurs besoins en flux de données robustes et architectures évolutives. Contribuer à la livraison du MVP (Minimum Viable Product) de la plateforme et aux déploiements à grande échelle envisagés. Appliquer les meilleures pratiques DevOps en utilisant Terraform et les pipelines GitLab CI .
Mission freelance
Data architecte / Expert Snowflake
Codezys
Publiée le
Apache Airflow
Kubernetes
Python
12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Mission freelance
dev. FULL STACK
W Executive France SAS
Publiée le
Angular
Python
2 ans
Gradignan, Nouvelle-Aquitaine
Bonjour, je recherche pour l'un de mes clients un(e) dev. FULL STACK . Skills : Angular - Pyton Mission : -concevoir et développer des API REST robustes et sécurisées en Python -implémenter des services back-end avec Django Rest Framework -développer des interfaces web dynamiques et performantes en Angular -participer à la définition et au respect des bonnes pratiques REST -contribuer à la qualité du code -collaborer avec les équipes produit, devOps et QA N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
Principal ML Engineer – Search & Retrieval Systems - ENGLISH MANDATORY
FF
Publiée le
MySQL
Python
6 mois
500-600 €
Paris, France
Dans le cadre du développement d’une start-up très ambitieuse , nous recherchons un(e) Principal ML / AI Engineer (Freelance) pour concevoir et structurer un système de recherche et de recommandation nouvelle génération basé sur des modèles de langage. La mission est stratégique et structurante : vous interviendrez sur l’architecture backend d’un moteur combinant recherche sémantique, contraintes structurées et orchestration LLM. Le périmètre couvre l’ensemble de la chaîne : Transformation de requêtes en langage naturel en requêtes structurées exploitables. Génération de candidats, filtrage et ranking multi-étapes. Re-ranking via LLM et amélioration continue de la pertinence. Mise en place de mécanismes d’explicabilité. Responsabilités principales Recherche & Retrieval Conception et exploitation de pipelines basés sur des embeddings. Sélection et évaluation de modèles d’embeddings. Structuration et normalisation des données pour optimiser performance et pertinence. Ranking & Pertinence Conception de flux multi-étapes (candidate generation → filtering → re-ranking). Définition de signaux de scoring hybrides (structurés + sémantiques). Itération continue à partir de données réelles. Architecture agentique Mise en place de systèmes où l’IA sélectionne et appelle dynamiquement des outils. Implémentation de boucles d’exploration et d’affinement. Arbitrage entre autonomie des modèles et contrôle déterministe. Intégration LLM Orchestration d’appels LLM pour compréhension, extraction d’intention et ranking. Définition de sorties structurées robustes (JSON schemas). Intégration de patterns RAG et recherche hybride. Évaluation & Performance Mise en place de frameworks d’évaluation de la pertinence. Analyse et amélioration des décisions de ranking. Optimisation des pipelines pour garantir une latence faible.
Offre d'emploi
INGENIEUR CLOUD AWS - DEVOPS
HEEVOX
Publiée le
Ansible
AWS Cloud
Azure DevOps
3 ans
40k-65k €
400-550 €
Île-de-France, France
Ingénieur Système - Cloud - DevOps Démarrage : ASAP Durée : 3 ans Localisation : Ile de France (Proche Paris) Télétravail : 50 % L’Ops, étroitement intégré dans les équipes de développement et en s’appuyant sur les experts techniques, est garant du service qu’il opère, en particulier : De la disponibilité du service Du bon fonctionnement des infrastructures sous-jacentes (Sécurité, Scalabilité…) Du monitoring global de son produit (alerting, monitoring, observabilité) De l’automatisation et de la modernisation des infrastructures (Migration Cloud, mise en place de CI/CD…) Du pilotage et de la résolution des incidents en cas de déclenchement jusqu’à leur résolution L’Ops contribue également très fortement à l’amélioration continue des outils comme des processus afin d’optimiser son travail (Automatisation, gestion des problèmes…) Mission : Être le premier point de contact technique sur les services que vous opérez Assurer ou coordonner un support Niveau 3 pour les équipes de développement (Mise en production, Déploiement, suivi des tâches “Infras”...) Assurer la bonne opérabilité du service en production (monitoring, alerting, documentation…) Optimiser votre travail et celui de vos collègues via l’automatisation (Déploiement, Maintenance, Détection de problèmes, Reporting…) Proposer, implémenter et assurer un bon niveau de sécurité Piloter et Investiguer sur la résolution d’incidents (Communication, Escalade, Animation…) Superviser son/ses services (Disponibilité, Latence, Erreurs, Sauvegardes…) Accompagner les équipes de développement et de TMA pendant les phases de conception et de développement afin d’apporter la vision “Opérationnelle” et détecter le plus tôt possible les “angles mort” Participer à l’amélioration continue des Infrastructures (migration des infrastructures “Legacy” vers le Cloud, Automatisation via d'Infrastructure as Code), de la qualité et des TTMs.
Mission freelance
Data Engineer - IA Gen
VISIAN
Publiée le
FastAPI
IA Générative
Large Language Model (LLM)
1 an
400-550 €
Paris, France
Afin de mener à bien notre mission l’équipe est composée de Data Engineer, de Data Scientist, de développeurs Python et d’un data analyst. L’équipe se veut jeune dynamique, motivée et très pro-active, l’entraide et la bonne ambiance sont présentes. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les softs skills sont donc autant essentielles que la technique : bon communiquant, motivé, force de proposition et sociable. La mission : Un programme visant à traiter l’ensemble des uses cases nécessitant l’utilisation d’IA à destination de la Finance a été lancé. Dans le cadre de notre activité nous avons pour mission d’accompagner la phase de cadrage faite par les Product Owner et d’implémenter des solutions adaptées aux besoins exprimés. Pour se faire nous cherchons à renforcer l’équipe actuelle constituée de développeur Full stack (Python\Angular) de data engineer et de data scientist avec un Data Engineer possédant de bonnes compétences en IA générative. La mission principale du profil retenu sera : Concevoir et développer des solutions de traitement de données complexes Implémenter solutions exploitant des modèles d'IA générative Participer à la mise en place de prompts et de RAG Collaborer étroitement avec les Product owner, les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. Si vous êtes passionné par les défis liés à la manipulation de données non structurées, que vous maîtrisez le Python et que vous avez une solide expérience en Data Engineering et en Ia générative, nous serions ravis de recevoir votre candidature. L’environnement de travail se veut stimulant, il offre des opportunités d'apprentissage continu et des projets innovants au sein d'une équipe dynamique et passionnée par les technologies émergentes. Durant votre intervention vous serez rattaché au responsable de l’équipe de développements tactiques et vous serez supervisé par un membre de l’équipe maitrisant les outils de data science. Vous serez fréquemment au contact du métier, des équipes innovation et d’autres développeurs.
Offre d'emploi
ALTERNANCE - Ingénieur(e) DevOps H/F
█ █ █ █ █ █ █
Publiée le
CI/CD
DevOps
Docker
Boulogne-Billancourt, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Développeur FullStack Java/ React
OPTIPARK
Publiée le
Apache Kafka
Business Process Model and Notation (BPMN)
Java
1 an
100-360 €
Niort, Nouvelle-Aquitaine
Nous recherchons actuellement une expertise en Développement « Full stack » Java/ React pour l'un de nos clients qui opère dans le secteur Assurance Son rôle consistera à participer activement à la conception et au développement des outils 'Back Office", en étroite collaboration avec l'équipe et le chef de projet. L'activité sera résolument orientée sur la conception et le développement. Des expériences dans les contextes suivants seront appréciées : Implémentation de solutions avec un workflow d’activité BPMN Connaissance ou forte appétence pour les technologies de streaming, notamment KAFKA Environnement conteneurisé (Openshift) Python 3 React 19 Objectifs et livrables Participer à l'étude et à la proposition de solutions techniques ; vous serez force de proposition sur les choix de conceptions et d’algorithmes. Participer aux cérémonies des équipes : PI Planning, chiffrages. Concevoir et paramétrer des solutions pour répondre aux enjeux d’évolution tout en garantissant la stabilité et la performance nécessaire aux équipes en charge d’apporter la valeur métier. Implémenter et tester les fonctionnalités réalisées. Réaliser des revues de code en collaboration avec votre équipe. Participer à la vie du projet au travers de votre intégration au sein de l’équipe. Rédiger la documentation technique nécessaire. Contribuer à l'amélioration continue, par des rétrospectives régulières, une recherche continue de simplification, d'optimisation et d’apport de nouveautés pragmatiques. Apporter la culture de la robustesse et de la performance (méthodes, mesure, améliorations, outils)
Mission freelance
100352/Coach Agile / Scrum (50%)/Data Analyst (50%) Nantes
WorldWide People
Publiée le
Agile Scrum
Data visualisation
Python
10 mois
400 €
Nantes, Pays de la Loire
Coach Agile / Scrum (50%)/Data Analyst (50%) Nantes : Coach Agile - Animer les cérémonies agiles (daily, sprint planning, review, rétrospectives). - Structurer le backlog et prioriser les tâches. - Former et sensibiliser l’équipe aux pratiques Scrum, Kanban et Lean. - Aider à lever les obstacles, améliorer le fonctionnement interne et le delivery. - Mettre en place des outils simples de suivi (tableaux, indicateurs, rituels). - Faciliter la communication entre les équipes techniques, métiers et exploitation Data Analyst (50%) : - Collecter, nettoyer et analyser les données liées aux flux, usages, équipements et services en gare. - Réaliser des tableaux de bord (Power BI ou équivalent) pour les équipes métiers. - Contribuer aux études statistiques (tendances, performances, incidents, utilisation des outils…). - Proposer des indicateurs pour orienter les décisions opérationnelles. - Travailler avec les équipes terrain pour comprendre les besoins utilisateurs et améliorer les visualisations. Compétences Agile : - Bonne maîtrise de Scrum et/ou Kanban. - Savoir animer une équipe, faciliter, cadrer, apaiser les tensions. - Approche pragmatique (pas dogmatique). Compétences Data : - Maîtrise d’un outil de data visualisation (Power BI, Tableau…). - Développement en Python. - Bon niveau en SQL et manipulation de données. - Capacité à vulgariser les analyses.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
770 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois