L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 561 résultats.
Mission freelance
Data Architect / Engineer Senior – Écosystème IoT & Sport
Publiée le
Architecture
Big Data
3 mois
400-550 €
Lille, Hauts-de-France
ANGLAIS COURANT OBLIGATOIRE Acteur majeur du secteur du sport et de l'innovation depuis plus de 40 ans, nous réinventons constamment le marché grâce à des produits accessibles et technologiques. Notre mission est de rendre les bienfaits du sport accessibles au plus grand nombre via un écosystème numérique complet : coaching virtuel, expériences connectées en magasin, services de location et produits intelligents. Vous rejoindrez une équipe technique de plus de 2 500 experts (ingénieurs, product managers, data experts) répartis entre Paris et Lille, dédiée à répondre aux besoins de 500 millions d'utilisateurs. Contexte de la mission Au sein de la division Connected Sports Platform (CSP) , nous accélérons notre transformation digitale via l'implémentation de solutions IoT. L'équipe Data est au cœur de ces enjeux : elle développe les briques nécessaires à l'ingestion, au stockage et à l'exposition des données échangées entre le cloud, les appareils connectés (vélos électriques, machines de fitness, etc.) et les applications mobiles. Objectifs : Optimiser l'exploitation des données pour la BI, la maintenance prédictive, la détection d'incidents et le design intelligent. Vos responsabilités En tant que Data Architect / Engineer (Freelance) , vous accompagnerez les projets dans leurs choix architecturaux et techniques avec les priorités suivantes : Architecture : Concevoir l'architecture d'ingestion et de stockage des données IoT (directes ou via mobile). Pipeline : Construire des pipelines de données structurées et non structurées scalables. Stratégie Tech : Définir la stratégie des stacks techniques et garantir le CI/CD. Optimisation : Maintenir et refondre les datasets existants pour de nouveaux cas d'usage. Qualité & Gouvernance : Assurer la fiabilité, l'accessibilité et la confidentialité des données (Data Privacy). Standardisation : Définir les standards d'architecture et assurer l'alignement entre la vision technique et les besoins utilisateurs. Profil recherché Expérience : +5 ans en tant que Senior Data Engineer dans un environnement microservices avec échanges de données en temps réel. Expertise Technique : Maîtrise de la modélisation de données, des systèmes distribués et de l'optimisation de requêtes. Stack : Maîtrise de Python (Scala ou Java sont un plus) et des technologies Kafka et Spark . Méthodologie : Culture Agile, GIT, Code Review et Peer Programming. Soft Skills : Excellente capacité de synthèse, communication fluide et esprit d'équipe. Langues : Français courant et anglais professionnel. Le "plus" pour cette mission : Expérience sur l'environnement AWS Big Data (Lambda, Redshift, S3). Expérience confirmée sur des produits IoT ou des appareils connectés. Modalités pratiques Durée : Mission longue durée. Lieu : Paris ou Lille (déplacements ponctuels à prévoir sur Lille si basé à Paris). Télétravail : Rythme hybride (environ 2 jours de télétravail par semaine). Matériel : Choix de l'environnement de travail (Mac, Windows). Compétences clés attendues (Récapitulatif) CompétenceNiveau attenduKafka / Spark Avancé AWS (Lambda, Redshift, S3) Confirmé Data Modeling Confirmé Écosystème IoT Confirmé Data Governance Confirmé
Offre d'emploi
Développeur Power BI (H/F)
Publiée le
Microsoft Power BI
6 mois
Le Havre, Normandie
Télétravail partiel
Dans le cadre des activités Data Factory d'un de nos clients, nous recherchons un développeur Power BI expérimenté pour participer au développement et à l’optimisation des rapports et dashboards métiers. Vous interviendrez en collaboration avec l’équipe IT et les équipes métiers pour : Participer au développement de rapports Power BI adaptés et performants. Prendre en compte les spécifications métiers pour concevoir des solutions efficaces et ergonomiques. Analyser les spécifications et réaliser les estimations nécessaires. Évaluer les impacts sur le Datamart / Oracle et le modèle sémantique Power BI. Développer et maintenir des rapports interactifs, optimisés pour desktop et mobile . Réaliser les tests unitaires et préparer la recette métier, avec présentation et prise en compte des évolutions. Suivre le planning de livraison et documenter les développements réalisés.
Mission freelance
Data Analyst (CRM Microsoft Dynamics & Power BI)
Publiée le
CRM
6 mois
400 €
Paris, France
Télétravail partiel
Intitulé du poste Data Analyst – Microsoft Dynamics & Power BI Missions principales Maîtriser l’environnement CRM Microsoft Dynamics et comprendre les modèles de données métiers associés. Assurer la maintenance évolutive et corrective des dashboards Power BI existants (optimisation, mises à jour, qualité des visuels). Concevoir et développer de nouveaux tableaux de bord adaptés aux besoins métiers, en intégrant les indicateurs clés de performance (KPI). Mettre en place des outils et règles de contrôle garantissant la qualité, la cohérence et la fiabilité de la donnée, tant dans le CRM que dans les tableaux de bord. Collaborer avec les équipes métiers pour comprendre leurs enjeux, traduire les besoins en spécifications analytiques et assurer un pilotage par la donnée fiable. Participer à l’amélioration continue du modèle de données et des processus d’alimentation du CRM et de Power BI. Livrables attendus Dashboards Power BI fonctionnels, documentés et maintenables. Documentation data (dictionnaire, mapping, règles de gestion, contrôles qualité). Rapports réguliers sur les KPI et analyses ad hoc. Plans d’actions data quality et suivi de leur mise en œuvre. Compétences techniques Microsoft Dynamics CRM : niveau expert Microsoft Power BI : expert (DAX, Power Query, modélisation, datasets) Conception et reporting KPI : expert Maîtrise de la pensée analytique : confirmé Connaissance des bonnes pratiques de data quality et gouvernance Compétences transverses Rigueur analytique & sens critique Capacité à vulgariser et restituer clairement des insights métier Autonomie dans la gestion des besoins et délais Aptitude à collaborer avec des équipes non techniques Langues Français : bilingue Anglais : opérationnel / requis Profil recherché Expérience confirmée en Data Analysis, idéalement dans un environnement CRM Capacité à travailler sur des sujets mêlant process métier, CRM et Business Intelligence Confort avec des environnements data complexes et des enjeux de qualité de données
Offre d'emploi
Responsable Activité « Mainframe Cluster CXI
Publiée le
Data management
1 an
Île-de-France, France
Télétravail partiel
Les principales missions s’articuleront autour des axes suivant: • Gouvernance o Gestion du plan de capacité des ressources du périmètre o Gestion des entrées et sorties des prestataires o Production de reportings mensuels consolidés des activités du périmètre o Consolidation des indicateurs au sein de tableaux de bord • Coordination o Suivi de la consommation CPU Batch des traitements applicatifs o Suivi de la volumétrie des unités d’œuvre de facturation des environnements systèmes o Élaboration du planning annuel des opérations mensuelles de redémarrage des partitions, en coordination avec les parties prenantes o Animation du comité mensuel de planification de capacité o Représentation du périmètre dans les différentes instances de gouvernance et de pilotage o Gestion documentaire, partage de la connaissance et lutte contre l’obsolescence documentaire • Supervision et participation aux activités suivantes, en collaboration avec l’équipe : Exploitation applicative (RUN) o Vérification de la bonne exécution du planning et mise en œuvre des actions nécessaires pour assurer la reprise des traitements et le retour au fonctionnement nominal o Qualification, traitement et résolution des incidents, avec mise à jour de la base de connaissance et sollicitation des équipes tierces si nécessaire o Maintien à jour de la documentation, de la CMDB, des consignes de pilotage et des référentiels associés o Traitement et exécution des évolutions et des changements, incluant la gestion des demandes associées
Offre d'emploi
DEVELOPPEUR POWER BI
Publiée le
DAX
Microsoft Power BI
Power Platform
3 ans
30k-55k €
400-450 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons un développeur Power BI. Description détaillée des tâches qui constituent la mission • Recueil des besoins utilisateurs, analyse de faisabilité et rédaction de spécifications, • Assister le Lead Développeur dans les choix techniques et la résolution de problématiques complexes, • Concevoir, développer, déployer et maintenir des tableaux de bord et rapports construits autour de Power BI (Desktop & Service), • Concevoir et mettre en place la modélisation des données (Modèles en étoile, relations) - Expertise Data forte, • Transformation et enrichissement des données (via Power Query) à partir des sources de production, • Appliquer les standards de développement Microsoft et respecter les normes spécifiques, • Implémenter les normes de sécurité dans les rapports (RLS - Row Level Security, gestion des accès), • Réaliser des tests de cohérence de données (DAX) et procéder au dépannage, • Tester la qualité des données et publier les rapports (Gestion des Espaces de travail / Apps), • Rédiger la documentation technique et fonctionnelle pour documenter les modèles et indicateurs développés, • Optimisation / Performances (Optimisation du DAX et des temps d'actualisation), • Veille technologique / évolutions de Power BI et de la Power Platform, • Support aux utilisateurs. Compétences mises en œuvre • Posséder une expérience au titre de développeur Web • Des connaissances en base de données , • Très bonne connaissance des sujets PowerBI • Très bonne connaissance des sujets DAX • Forte connaissance attendue sur les sujets d'architecture et de sécurité pour concevoir des solutions industrialisées et gouvernées • Très bonne connaissance des sujets SQL • Très bonne connaissance des sujets plateforme Microsoft Office 365 / Power Platform,
Offre d'emploi
Ingénieur Production / DevOps GCP (H/F)
Publiée le
Google Cloud Platform (GCP)
Jenkins
Maintien en condition opérationnelle (MCO)
2 ans
40k-47k €
340-440 €
Charenton-le-Pont, Île-de-France
Télétravail partiel
Nous recherchons un Ingénieur Production / DevOps pour renforcer une équipe en charge du RUN, du MCO et du déploiement d’une nouvelle plateforme applicative. La mission s’inscrit dans le cadre d’un nouveau projet orienté GCP (Google Cloud Platform) , incluant de la CI/CD, de l’automatisation et des travaux de migration d’ordonnanceur. Missions principales 1. RUN / MCO Assurer le support de production applicative Suivre et résoudre les incidents et problèmes Gérer les transferts de fichiers et flux applicatifs Traiter les demandes via Jira 2. Déploiement & Projets Déployer de nouvelles plateformes applicatives Contribuer au lancement d’un nouveau projet sur GCP Collaborer avec les équipes Dev, Infra, Réseau et Sécurité 3. CI/CD & Automatisation Gérer et optimiser les pipelines CI/CD : XL Release / XL Deploy Jenkins Terraform (GCP) Automatiser les tâches récurrentes : Python Shell / Bash 4. Supervision & Ordonnancement Surveiller les environnements via : Zabbix Grafana Travailler sur les ordonnanceurs : VTOM (en place) Migration prévue vers Control-M Environnement technique Cloud : GCP CI/CD : XLR / XLD, Jenkins IaC : Terraform (GCP) Scripting : Python, Shell, Bash Supervision : Zabbix, Grafana Ordonnancement : VTOM → Control-M Gestion tickets : Jira Profil recherché Expérience confirmée en Production Applicative / DevOps Excellente maîtrise du RUN / MCO Compétences solides en CI/CD (Jenkins, XLR/XLD, Terraform) Très bon niveau en automatisation (Python, Shell, Bash) Connaissance ou pratique de GCP Maîtrise des outils de supervision Connaissance de VTOM ou Control-M Bon relationnel, rigueur, proactivité et autonomie
Offre d'emploi
Expert Kubernetes / DevOps
Publiée le
Ansible
Azure
Cloud
3 ans
40k-65k €
400-560 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de son pôle DevOps, un grand groupe international du secteur du luxe recherche un Expert Kubernetes / DevOps afin d’industrialiser les déploiements des infrastructures cloud et de renforcer l’expertise autour des plateformes de conteneurisation. La mission s’inscrit au sein d’une équipe DevOps transverse, en charge des produits et solutions d’automatisation utilisés par les équipes techniques et projets. Objectifs de la mission L’expert interviendra sur les sujets suivants : Définition, évolution et maintien des toolkits de la fondation Kubernetes déployée sur plusieurs environnements cloud Contribution experte au déploiement et à l’extension de la plateforme Kubernetes sur différents fournisseurs cloud Mise en place de standards, bonnes pratiques et patterns d’industrialisation Accompagnement des équipes projets dans l’adoption et l’utilisation de la fondation Kubernetes Support aux équipes opérationnelles Transfert de compétences vers les équipes internes Responsabilités principales Participer à l’animation et à l’expertise du domaine DevOps Intervenir en tant que référent technique Kubernetes Garantir la qualité, la robustesse et la maintenabilité des déploiements Contribuer à l’amélioration continue des processus et outils DevOps
Mission freelance
[SCH] Architecte GCP - 1064
Publiée le
10 mois
350-450 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation et centralisation des données RH, le client recherche un Architecte Google Cloud Platform (GCP) expérimenté pour concevoir, déployer et accompagner la mise en place d’une plateforme Data RH unifiée. L’objectif est de fiabiliser, gouverner et valoriser les données RH au sein d’un environnement GCP à forte volumétrie. Missions principales : -Concevoir et documenter l’architecture GCP (BigQuery, Cloud Composer, Storage, IAM, Dataflow…). -Accompagner les équipes Data et RH sur la migration, intégration et fiabilisation des flux de données existants. -Piloter la mise en œuvre des pipelines ETL/ELT et orchestrations avec Cloud Composer / Airflow. -Assurer la sécurité, la gouvernance et la qualité des données dans le respect des standards du groupe. -Contribuer à l’industrialisation des environnements (Terraform, CI/CD). -Coacher les équipes internes sur les bonnes pratiques GCP et l’usage de BigQuery pour les reporting RH. -Participer aux rituels agiles (daily, sprint review, backlog grooming). Objectifs & livrables attendus : -Architecture GCP validée et documentée (DAT, DEX, schémas d’intégration). -Mise en place de la plateforme Data RH (BigQuery, Composer, GCS). -Pipelines automatisés et sécurisés pour la collecte, transformation et exposition des données RH. -Accompagnement des équipes jusqu’à la stabilisation et passage en RUN. Profil recherché : - +8 ans d’expérience en architecture data / cloud, dont 3+ sur GCP. -Maîtrise approfondie des composants BigQuery, Cloud Composer (Airflow), Cloud Storage, IAM. -Expérience en data engineering / ETL / orchestration. -Connaissance des outils de visualisation type Power BI. -Sensibilité aux enjeux RH et gouvernance des données. -Pratique confirmée de l’agilité (Scrum / SAFe). -Excellent relationnel et capacité à vulgariser les aspects techniques auprès des équipes métiers.
Mission freelance
Architecte réseau et sécurité (F/H)
Publiée le
Azure
Fortinet
Google Cloud Platform (GCP)
6 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Architecte Réseau et Sécurité afin de rejoindre l'équipe Architecture Technique de la direction Infrastructures et Technologies et intégré aux équipes opérationnelles Missions A ce titre vous aurez la charge : - de concevoir le design des solutions Réseaux dans le cadre des programmes technologiques: - de définir la feuille de route de la transformation technologique associée - de garantir l'implémentation de la feuille de route en participant activement aux projets de déploiement - d'assister les équipes de production via votre expertise sur les solutions - d'identifier les problèmes et construire les plans de correction et d'amélioration L'ensemble de ces missions doivent être réalisées dans le respect des bonnes pratiques, des exigences de sécurité et de conformités De nature passionnée, curieuse, et persévérante, vous souhaitez intervenir dans le cadre de missions challengeantes et variées.
Mission freelance
DEVIENS #AUTEUR DE VIDEO Hadoop - Stockage et traitement des données
Publiée le
Big Data
Hadoop
4 mois
100-300 €
Saint-Herblain, Pays de la Loire
Télétravail partiel
Nous sommes une maison d'édition spécialisée dans la publication de livres et vidéos autour de l'informatique et de la bureautique. Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre vidéo qui portera sur Hadoop. "Pourquoi pas moi ? Je suis développeur(euse), expert(e) Big Data, ou formateur(trice)... et Hadoop n'a aucun secret pour moi. J’ai envie de partager mon expertise au plus grand nombre ! Participer à la création d'une vidéo me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Vous bénéficierez d'un accompagnement éditorial (sommaire, essai, méthodologie, suivi, montage vidéo...) La rémunération est proposée sous forme de forfait.
Offre d'emploi
DATA ENGINEER MICROSFT BI / POWER BI
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SSIS
3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons un Data engineer Microsoft BI / Power BI. Contexte : La poursuite de la mise en place de la plateforme décisionnelle au sein du SI de Covéa Finance, nous recherchons un développeur MS BI confirmé . Le consultant interviendra sur le développement, la maintenance évolutive et corrective du système décisionnel. Il sera rattaché hiérarchiquement au Responsable MOE E&D et intégré à l’équipe DWH pour répondre aux demandes tactiques de la plateforme décisionnelle du directeur de projet. Missions principales : Formaliser les spécifications fonctionnelles et analyser les besoins. Identifier les impacts sur l’existant et proposer des solutions techniques. Participer à la modélisation des données et aux choix d’architecture technique. Contribuer au plan de charge et à la définition du planning. Rédiger les spécifications techniques et documents d’exploitation. Développer les nouvelles demandes : intégration de données, création de cubes tabulaires , rapports et dashboards. Assurer le déploiement en homologation et production. Accompagner la MOA et les métiers lors des phases de recette. Support et maintenance corrective (niveau 3). Remonter les informations et indicateurs à son responsable hiérarchique. Compétences techniques indispensables : Expertise sur Microsoft Fabric / MS BI . Maîtrise SQL et T-SQL . Développement et maintenance de SSRS et cubes tabulaires . Expérience en Power BI : dashboards, modélisation, DAX. Bonne compréhension des processus décisionnels et reporting métier . Compétences transverses : Esprit d’analyse et rigueur. Capacité à travailler en équipe et à collaborer avec les équipes métier et infrastructure. Autonomie et force de proposition. Bon relationnel et sens du service client interne. Localisation :
Mission freelance
Chef de projet - Carve-in, fusion-acquisition - M&A
Publiée le
Data governance
3 mois
400-650 €
Seine-Saint-Denis, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients, dans le secteur de la distribution B2B, un chef de projet qui va venir assurer une intégration complète des processus et outils de la société rachetée. Le profil doit nécessairement avoir DÉJÀ fait des carves-in, fusion acquisition, M&A Missions principales : 1. Pilotage global du projet d’intégration • Orchestrer et coordonner l’intégration de la société dans la chaîne de publication standard du Groupe. • Définir le plan de transformation (cadrage, étapes clés, roadmap, risques, budgets, dépendances). • Assurer la synchronisation des chantiers fonctionnels et techniques • Superviser la gouvernance de projet, le reporting et les arbitrages auprès des sponsors et directions métier/IT. 2. Cadrage fonctionnel et harmonisation des processus • Cartographier les processus actuels de publication et de gestion produit de la société en question • Identifier les écarts avec le modèle standard et des solutions • Définir les flux cibles, les modèles de données et les interfaces inter-systèmes. • Garantir la cohérence des processus métiers à travers les différents outils. 3. Coordination multi-acteurs et conduite du changement • Fédérer les équipes locales et les équipes centrales autour d’une vision commune. • Organiser et animer les comités, ateliers et points d’avancement (métier, IT, data, publication). • Accompagner les équipes dans la montée en compétence sur les outils et standards Groupe. • Anticiper et gérer les impacts humains, organisationnels et techniques liées à l’intégration. 4. Data & publication : cohérence end-to-end • Garantir la qualité, fiabilité et complétude des données produits tout au long du processus. • S’assurer de l’alignement entre les systèmes • Suivre les indicateurs de performance et d’adoption (KPI qualité data, flux, taux de publication, délais). • Travailler en synergie avec les équipes Data / BI
Mission freelance
Business analyst data / BI
Publiée le
API
Business Analysis
Snowflake
18 mois
100-350 €
Vanves, Île-de-France
Télétravail partiel
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Offre d'emploi
Développeur Data / BI – Datastage & Power BI (H/F)
Publiée le
IBM DataStage
Microsoft SQL Server
PostgreSQL
55k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👍 Si vous souhaitez mettre vos compétences au service d’un projet stratégique orienté Data & Décisionnel, nous avons LA mission pour vous ! Nous recherchons un(e) Développeur Data / BI (H/F) maîtrisant Datastage, SQL et Power BI pour intervenir sur un projet à forte valeur ajoutée autour de la construction et de l’optimisation du système décisionnel de notre client 🚀 Vous rejoindrez une équipe experte du SI Décisionnel et participerez à des travaux d’alimentation, de transformation et de restitution des données au sein d’un environnement technique exigeant. 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 Développement & Alimentation de données : 🔸 Concevoir et développer les programmes d’alimentation du Datawarehouse et des Datamarts (ODS, DWH) ; 🔸 Réaliser des traitements complexes via Datastage et le langage SQL ; 🔸 Optimiser les requêtes SQL pour garantir la performance des chaînes de traitements ; Restitution & Reporting : 🔸 Développer des datasets et dataflows sous Power BI ; 🔸 Concevoir et produire des rapports et tableaux de bord utilisateurs ; Qualité, Maintenance & Exploitation : 🔸 Réaliser les tests unitaires et rédiger les plans/fiches de tests ; 🔸 Rédiger le dossier d’exploitation destiné à l’équipe de Production ; 🔸 Prendre en charge les anomalies et évolutions (Run) en lien avec les équipes internes ; 🔸 Respecter les normes et bonnes pratiques en vigueur au sein du SI Décisionnel ; 🔸 Assurer un reporting d’avancement régulier auprès du responsable de domaine.
Offre d'emploi
Développeur fullstack Java VueJS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java
3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, Vue JS, VueJS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Mission freelance
Data Engineer / Data Analyst
Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)
2 ans
420-500 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2561 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois