L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 809 résultats.
Mission freelance
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks)
WorldWide People
Publiée le
Databricks
6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks) Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Mission freelance
Business Analyst Finance DATA / IA - Paris
Net technologie
Publiée le
Big Data
Elasticsearch
Méthode Agile
9 mois
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un Senior Business Analyst pour contribuer à l’industrialisation d’une plateforme globale de Front Office destinée à renforcer la supervision des activités de trading et de sales. 🎯 Objectif : développer une plateforme de monitoring couvrant communications, ordres, transactions et données associées , intégrant des technologies d’analyse avancées (NLP / IA). 🚀 Missions Recueil et formalisation des exigences fonctionnelles et use cases Rédaction des spécifications fonctionnelles et techniques Coordination avec les Data Engineers et les équipes projet Participation aux sprints Agile et suivi des livraisons Conception de la stratégie data pour l’analyse multi-sources Organisation et pilotage des tests UAT Collaboration avec les équipes Business, Compliance et IT
Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT
OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT
3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Offre d'emploi
Data Engineer
Recrut Info
Publiée le
AWS Cloud
Data Lake
Python
45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Offre d'emploi
Data Quality / VBA Developer (H/F)
OMICRONE
Publiée le
Microsoft Access
Microsoft Excel
Microsoft Power BI
2 ans
40k-45k €
400 €
Île-de-France, France
📢 Mission – Data Quality / VBA Developer (H/F) Dans le cadre d’un programme de transformation data au sein d’un grand groupe bancaire, nous recherchons un consultant confirmé en VBA / Data Quality pour intervenir sur des sujets de réconciliation de données et automatisation de processus . 🔹 Missions : Maintenance et évolution de scripts VBA (Excel / Access) Pilotage des processus de réconciliation de données Exécution et suivi de bulk data Administration et migration SharePoint Online Suivi des incidents et amélioration des processus 🔹 Environnement technique : VBA, Excel, Access, SQL, PowerShell, SharePoint Online, ServiceNow, Power BI 📍 Localisation : France (présentiel + télétravail) 📅 Démarrage : Avril 2026 👤 Expérience : 3 ans minimum
Offre d'emploi
Lead Full Stack Développeur (Produit - Java / Kotlin - Web) F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Bitbucket
Java
Javascript
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Chef.fe de projet Data senior
Atlanse
Publiée le
Agile Scrum
Gestion de projet
Méthode Agile
6 ans
55k-65k €
400-550 €
Paris, France
En tant que Chef.fe de projet Data senior – flux de données, vous pilotez la structuration, l’intégration et la fiabilisation des flux alimentant une base annuaire centrale. Votre rôle Cadrage et structuration des flux data · Piloter les études de cadrage avec les partenaires internes et externes · Formaliser les besoins fonctionnels et les exigences en matière de qualité de données · Challenger les demandes du commanditaire au regard des contraintes techniques et d’architecture · Définir les formats d’échange et standards d’intégration (API, fichiers, JSON…) · Identifier les risques (techniques, organisationnels, partenaires) · Définir la feuille de route projet en cohérence avec les enjeux stratégiques et politiques Organisation et fiabilisation des intégrations · Structurer une base annuaire alimentée par des flux multiples (API, fichiers, imports batch…) · Superviser l’intégration progressive de nouvelles sources et fournisseurs de données · Mettre en place ou cadrer les processus de nettoyage, normalisation et déduplication · Définir les mécanismes d’automatisation et de contrôle des flux · Garantir la qualité, la cohérence et la traçabilité des flux intégrés Pilotage projet et coordination transverse · Coordonner les équipes métiers, techniques et partenaires externes · Arbitrer les priorités, suivre les charges, délais et budgets · Organiser les phases de recette et valider la conformité aux exigences définies · Assurer la gouvernance projet et le reporting auprès des instances décisionnelles · Défendre les contraintes techniques et les positions du client face aux parties prenantes Supervision et cohérence globale · Challenger les choix d’architecture en lien avec les équipes techniques · Veiller à la robustesse et à la performance des flux de données · Superviser les mécanismes d’échanges inter-applicatifs · Assurer la cohérence globale entre l’application centrale et les applications connectées
Mission freelance
Expert Kibana / Data Visualisation (F/H)
CELAD
Publiée le
Bitbucket
CI/CD
Data visualisation
12 mois
550-590 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Expert Kibana / Data Visualisation pour intervenir chez un de nos clients dans le secteur banacaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Concevoir, développer et maintenir des dashboards avancés sous Kibana pour assurer une visibilité de bout en bout des systèmes et des flux de données - Transformer des données issues de Elasticsearch en visualisations claires, pertinentes et actionnables - Mettre en place des visualisations interactives (filtres, drill-down, agrégations) pour faciliter l’analyse et la prise de décision - Analyser les données collectées via Filebeat et Logstash afin d’en maximiser la valeur - Exploiter les fonctionnalités de Machine Learning de Kibana pour détecter anomalies, tendances et signaux faibles - Collaborer avec les équipes techniques pour optimiser les requêtes, les index et la qualité des données - Traduire les besoins métiers en dashboards pertinents et exploitables - Assurer la fiabilité, la cohérence et la qualité des données présentées
Mission freelance
TOULOUSE - Expert Réseau & Sécurité -Fortinet / Automatisation
CAT-AMANIA
Publiée le
Ansible
F5
Fortinet
3 ans
400-440 €
Toulouse, Occitanie
Description du poste Dans le cadre du renforcement des équipes infrastructures, tu interviens en tant qu’ expert Fortinet au sein d’environnements datacenter critiques . L’équipe est en charge de la gestion des infrastructures de sécurité (hors gestion des politiques de sécurité), avec un fort enjeu de disponibilité et d’automatisation . Tes missions principales : Administrer et maintenir les infrastructures Fortinet en environnement build & run Participer au design et à l’évolution des architectures de sécurité Mettre en place et améliorer les processus d’ automatisation des infrastructures Contribuer au maintien en condition opérationnelle des plateformes de sécurité Assurer le support N3 sur les incidents complexes Participer à l’intégration des solutions de sécurité dans l’ écosystème réseau global Intervenir sur des environnements de production critiques avec des exigences fortes de disponibilité et de performance Participer aux astreintes, permanences et opérations en heures non ouvrées
Offre d'emploi
Technicien Informatique Itinérant (H/F) - PONTIVY (56)
Experis France
Publiée le
Pontivy, Bretagne
Technicien Informatique Itinérant (H/F) - PONTIVY / MORBIHAN (56) - Pontivy Pour accompagner notre forte croissance sur nos activités de Field Services, nous recrutons un Technicien/Référent informatique Itinérant (H/F) pour intervenir sur le Morbihan (56) et ses alentours. Vous aurez pour principales missions : Qualifier, gérer et résoudre les incidents de premier et second niveau (interventions physiques) Réaliser les demandes nécessitant une intervention physique, selon les procédures en vigueur : déploiement de matériel Retail, déménagement, mise au rebus… Participer à la gestion de parc : suivi du stock, renouvellement du parc postes et périphériques… Analyser et résoudre les incidents liés à la monétique (caisse, terminaux de paiement…) et au matériel Réaliser des opérations de maintenance, réception des pièces détachées et matériels Proposer des évolutions des documentations : procédures, renseignement de la base de ticketing Coordonner les techniciens sur le site lors du déploiement Anticiper les répartitions et changements et veiller à s'adapter, en fonction et escalader au superviseur régional (ou superviseur d'astreinte si nuit) pour déclenchement d'un éventuel backup S'assurer du bon avancement des prestations et alerter la Maîtrise d'Œuvre (MOE) en cas de problème et être le point d'entrée du client (MOE) lors de la prestation en magasin S'assurer de l'atteinte de l'objectif du déploiement S'assurer du respect des process mais aussi être force de proposition pour les faire évoluer Assurer le support technique de l'équipe le cas échéant. Date de démarrage : ASAP Contrat : CDI Permis de conduire obligatoire pour des déplacements quotidiens
Offre d'emploi
Technicien Informatique Itinérant (H/F) - PONTIVY (56)
Experis France
Publiée le
Pontivy, Bretagne
Technicien Informatique Itinérant (H/F) - PONTIVY / MORBIHAN (56) - Pontivy Pour accompagner notre forte croissance sur nos activités de Field Services, nous recrutons un Technicien/Référent informatique Itinérant (H/F) pour intervenir sur le Morbihan (56) et ses alentours. Vous aurez pour principales missions : Qualifier, gérer et résoudre les incidents de premier et second niveau (interventions physiques) Réaliser les demandes nécessitant une intervention physique, selon les procédures en vigueur : déploiement de matériel Retail, déménagement, mise au rebus… Participer à la gestion de parc : suivi du stock, renouvellement du parc postes et périphériques… Analyser et résoudre les incidents liés à la monétique (caisse, terminaux de paiement…) et au matériel Réaliser des opérations de maintenance, réception des pièces détachées et matériels Proposer des évolutions des documentations : procédures, renseignement de la base de ticketing Coordonner les techniciens sur le site lors du déploiement Anticiper les répartitions et changements et veiller à s'adapter, en fonction et escalader au superviseur régional (ou superviseur d'astreinte si nuit) pour déclenchement d'un éventuel backup S'assurer du bon avancement des prestations et alerter la Maîtrise d'Œuvre (MOE) en cas de problème et être le point d'entrée du client (MOE) lors de la prestation en magasin S'assurer de l'atteinte de l'objectif du déploiement S'assurer du respect des process mais aussi être force de proposition pour les faire évoluer Assurer le support technique de l'équipe le cas échéant. Date de démarrage : ASAP Contrat : CDI Permis de conduire obligatoire pour des déplacements quotidiens
Offre d'emploi
TECH LEAD DATA GCP
UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python
6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Offre d'emploi
Technicien Informatique proximité VIP H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
30k-35k €
Paris, France
Gestion des incidents et des problèmes techniques : • Identifier, analyser et résoudre les incidents et problèmes techniques rencontrés par les utilisateurs dans les Magasins, en priorisant les VIP • Diagnostiquer les pannes matérielles et logicielles sur les équipements des magasins (caisses, imprimantes, systèmes de paiement, ordinateurs, etc.). • Effectuer un suivi régulier des tickets et s'assurer de leur résolution, mise en attente, relance ou escalade dans les délais impartis. • Escalader les problèmes complexes aux manager et aux équipes de niveau supérieur si nécessaire. Support technique aux utilisateurs : • Fournir un support technique de haute qualité aux utilisateurs en magasin, avec un service prioritaire pour les utilisateurs VIP ou des incidents caisse. • Assister les utilisateurs dans l'utilisation des équipements informatiques (logiciels, matériels, outils de caisse, etc.). • Assurer l'aide à la prise en main par les utilisateurs sur les nouveaux outils ou matériels Interventions planifiées (demandes) : • Réaliser les interventions planifiées telles que l'installation, la configuration, et l'évolution de matériels ou logiciels dans les magasins de notre client • Participer aux déploiements de nouveaux équipements et logiciels dans les magasins. • Assurer la mise en place des matériels sur magasin saisonnier (Courchevel). 1 déplacement à prévoir à l'ouverture de la saison (décembre), 1 déplacement à prévoir à la fermeture de la saison (avril) Gestion et Maintenance des Systèmes et Équipements : • Assurer la maintenance préventive des équipements et systèmes dans les magasins pour éviter les pannes. • Effectuer des vérifications régulières sur les systèmes utilisés en magasins pour s'assurer de leur bon fonctionnement. • Mettre à jour les logiciels et assurer la sécurité des systèmes en fonction des besoins de la boutique. Communication et Reporting : • Maintenir une communication régulière avec les manager. Fournir des rapports détaillés sur les incidents traités, les interventions réalisées, et les améliorations proposées. Assurer une communication claire et rapide lors des interventions, en particulier pour les utilisateurs VIP. • D'autres missions complémentaires peuvent être confiées au Technicien Support VIP sur les activités Run et projets. Référence de l'offre : osutnkmcor
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Offre d'emploi
Technicien Informatique Itinérant (H/F) - Besançon (25)
Experis France
Publiée le
Besançon, Bourgogne-Franche-Comté
Technicien Informatique Itinérant (H/F) - Besançon (25) - Besançon Pour accompagner notre forte croissance sur nos activités de Field Services, nous recrutons un Technicien/Référent informatique Itinérant (H/F) pour intervenir sur Besançon et ses alentours. Vous aurez pour principales missions : Qualifier, gérer et résoudre les incidents de premier et second niveau (interventions physiques) Réaliser les demandes nécessitant une intervention physique, selon les procédures en vigueur : déploiement de matériel Retail, déménagement, mise au rebus… Participer à la gestion de parc : suivi du stock, renouvellement du parc postes et périphériques… Analyser et résoudre les incidents liés à la monétique (caisse, terminaux de paiement…) et au matériel Réaliser des opérations de maintenance, réception des pièces détachées et matériels Proposer des évolutions des documentations : procédures, renseignement de la base de ticketing Coordonner les techniciens sur le site lors du déploiement Anticiper les répartitions et changements et veiller à s'adapter, en fonction et escalader au superviseur régional (ou superviseur d'astreinte si nuit) pour déclenchement d'un éventuel backup S'assurer du bon avancement des prestations et alerter la Maîtrise d'Œuvre (MOE) en cas de problème et être le point d'entrée du client (MOE) lors de la prestation en magasin S'assurer de l'atteinte de l'objectif du déploiement S'assurer du respect des process mais aussi être force de proposition pour les faire évoluer Assurer le support technique de l'équipe le cas échéant. Date de démarrage : ASAP Contrat : CDI Permis de conduire obligatoire pour des déplacements quotidiens
Mission freelance
Développeur(se) Full Stack Senior Java / VueJS – Data & Robotique
Syneam
Publiée le
Java
Springboot
Vue.js
6 mois
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre du développement d'une plateforme web orientée data, nous recherchons un(e) consultant(e) senior pour contribuer à rendre des données terrain accessibles et exploitables. La mission consiste à restituer des données opérationnelles liées à l'activité de robots déployés sur plusieurs sites, à destination d'utilisateurs ayant besoin d'une information rapide et fiable. Environnement produit, agile, avec de fortes interactions métier. Descriptif de la mission Concevoir et développer des fonctionnalités web de restitution de données opérationnelles à forte valeur d'usage Intervenir en full stack : back Java / Spring Boot, front VueJS Participer aux choix techniques et à l'amélioration continue de la plateforme Collaborer au sein d'une squad (PO, Tech Lead, développeurs back/front, UI/UX) Travailler en proximité avec les équipes data pour fiabiliser l'exploitation des données Comprendre les besoins utilisateurs, challenger les demandes et contribuer à une démarche produit itérative
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5809 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois