Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 169 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur fullstack JavaScript

ICSIS
Publiée le
Angular
Apache Kafka
Git

2 ans
350-500 €
Lille, Hauts-de-France

Vous serez responsable de: - Concevoir et contribuer au développement du produit - Rédaction des documentations techniques - Mise en place et/ou renforcement de best practices autour du testing, de l'alerting, du monitoring pour assurer la qualité, la stabilité et la extensibilité du produit; - Reprendre en main l’outil afin d’y ajouter les besoins spécifiques - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) ++: Nodejs / Nest.js ++ : React / Vue / Angular ++: BDD : GCP, MongoDB, PostgreSQL ... ++: Kafka +: CI/CD ou GitHub Actions - Maitrise et pratique de l'Agile Anglais un + Mission en métropole lilloise avec télétravail partiel (2-3 jours)

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

CDI
Freelance

Offre d'emploi
Data Analyst H/F

CAPEST conseils
Publiée le
Apache Airflow
Python
Snowflake

12 mois
10k-185k €
Paris, France

Afin de renforcer l’équipe DATA, nous recherchons un.e Data Analyst. Le Data Analyst travaille en étroite collaboration avec les équipes métiers et techniques, afin de leur fournir les données nécessaires à une prise de décision éclairée. Vos missions : · Répondre à des questions métiers, de façon ad hoc via des requêtes et extractions ou bien de façon plus pérenne via la création de tableaux de bord · Concevoir, développer, tester et maintenir les pipelines de transformations des données · Construire les transformations qui nous permettront de partager des données de qualité aux différentes directions/filiales · Collaborer avec les métiers afin de concevoir de nouveaux reportings · Collaborer avec l’équipe Data Science afin de les aider à la conception de leurs modules d’intelligence artificielle. · Être force de proposition pour l’amélioration continue des processus existants · Vous connaissez le SQL et vous êtes capable d’écrire des requêtes complexes. · Vous avez une appétence pour l’analyse de données et de Data Visualization · Vous avez un fort esprit analytique · Vous êtes clair et concis et vous savez vulgariser vos connaissances auprès du métier Bonus : · Vous connaissez Snowflake · Vous avez eu une expérience avec Airflow · Vous savez utiliser Git · Vous avez de l’expérience avec des langages de programmation comme Python

CDI

Offre d'emploi
Développeur Back End Senior

Aepsilon
Publiée le
Apache Kafka
Apache Tomcat
J2EE / Java EE

45k-47k €
Valbonne, Provence-Alpes-Côte d'Azur

Vous offririez bien un peu de challenge à votre vie professionnelle, mais vous n’avez pas encore trouvé LE rôle qui va vous donner cette envie de changement ? Il se peut que l’on ait quelque chose à vous proposer :) En effet, nous vous proposons de rejoindre une entreprise à taille humaine, dynamique et bienveillante. Son domaine d’activité : le voyage. Son objectif : simplifier la réservation des billets d’avion grâce à des solutions innovantes. Venons-en au poste : nous recherchons un Développeur back-end senior . Challenger l’architecture de la solution Prendre part aux décisions concernant les évolutions techniques Gérer la migration du back-end historique vers un nouveau back-end (architecture micro services) Définir les bonnes pratiques de développement pour le back-end Définir, développer et maintenir les composants transverses qui constituent le socle technique back-end Participer à l'élaboration de la documentation nécessaire à l’exploitation et au maintien des applications Assurer une veille sur les technologies back Choisir les technologies les plus judicieuses en fonction de son contexte Liste évidemment non exhaustive ! Suivant la méthodologie Scrum, vous travaillerez en étroite collaboration avec deux développeurs back-end et un développeur front-end, un Product Owner et un CTO.

CDI

Offre d'emploi
Architecte Cybersécurité

Group V.I.I ORIGIN
Publiée le
Apache Hive
Apache Spark
Hadoop

10k-100k €
Île-de-France, France

Nous recherchons un Architecte Cyber Sécurité afin d'intégrer nos équipes, pour effectuer les tâches suivantes : - Accompagnement sécurité des projets métiers et techniques de la phase d’instruction à la mise en production - Pilotage de sujets sécurité techniques et fonctionnels divers avec des correspondants techniques ou métiers suivant le projet: • Pilotage du volet sécurité de projet de déploiement d’infrastructure ou d’application dans le Cloud • Analyse des risques de sécurité liés à l’introduction de nouvelles technologies ou de nouveaux systèmes d’information • Animation de programme de Cyber Sécurité : veille, réalisation études, gestion et maitrise des risques • Définition de la cible à atteindre, réunions de travail avec les équipes techniques, pilotage des actions • Pilotage de projet technique de transformation de SI, ex : mise en place d’un DLP • Contribution aux projets études et de réalisation technique, dossiers d'architecture, etc. (tout document projet) • Accompagnement au projet, toute contribution sécurité dans les livrables de la méthode projet : o Réalisation d’étude technique o Questionnaire sécurité pour un appel d'offres o Analyse de risque sur le volet technique et organisationnel o Paragraphe sécurité dans le dossier d'architecture o Cahier des charges pour la réalisation de tests d'intrusion o Restitution des vulnérabilités pour les audits de code • Pour le pilotage de sujets techniques sécurité, tout document utile à la mise en place / amélioration de l'outil / processus Environnement technique de la prestation : M365, Spark, Hive, Hadoop

Freelance

Mission freelance
Data Scientist - MLOps (F/H)

SMARTPOINT
Publiée le
Apache
Kubernetes

12 mois
400-450 €
Île-de-France, France

Description du poste : En tant que Data Scientist spécialisé en MLOps (Machine Learning Operations), vous serez chargé de concevoir, développer et déployer des modèles d'apprentissage automatique à grande échelle, tout en assurant leur intégration harmonieuse dans les systèmes de production. Vous travaillerez en étroite collaboration avec les équipes d'ingénierie des données, les scientifiques des données et les développeurs logiciels pour automatiser et optimiser le cycle de vie des modèles, de l'entraînement à la production. Responsabilités : Développement de modèles d'apprentissage automatique : Concevoir et mettre en œuvre des modèles d'apprentissage automatique en utilisant des techniques avancées telles que l'apprentissage supervisé, non supervisé et par renforcement. MLOps : Mettre en place des pipelines de déploiement automatisés pour les modèles, en utilisant des outils et des frameworks tels que Kubeflow, MLflow ou TensorFlow Extended (TFX). Automatisation et orchestration : Développer des processus automatisés pour l'entraînement, le déploiement et la surveillance des modèles, en utilisant des outils tels que Apache Airflow ou Kubernetes. Surveillance des performances : Mettre en place des systèmes de surveillance pour suivre les performances des modèles en production, en identifiant les dégradations de performance et en proposant des améliorations. Collaboration interfonctionnelle : Travailler en étroite collaboration avec les équipes d'ingénierie des données, les scientifiques des données et les développeurs logiciels pour intégrer efficacement les modèles dans les applications et les services. Optimisation des ressources : Optimiser l'utilisation des ressources informatiques en mettant en place des stratégies de mise à l'échelle automatique et en utilisant des architectures cloud adaptées. Sécurité et conformité : Assurer la sécurité et la conformité des modèles en mettant en place des pratiques de gouvernance des données et en garantissant la confidentialité des informations.

Freelance

Mission freelance
INGENIEUR DE PRODUCTION

GROUPE ARTEMYS
Publiée le
Apache
Control-M
Oracle

6 mois
380-450 €
Nantes, Pays de la Loire

De belles missions vous attendent chez notre client sur des environnements riches et challengeants : Vous intégrez un acteur majeur du secteur bancaire, aux valeurs fortes telles que la proximité, la coopération et l’expertise. Vos missions au quotidien : Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. - Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. Participer aux tests et rédiger les dossiers d’exploitation. Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). Contribuer activement à la démarche d’amélioration continue.

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance
CDI

Offre d'emploi
Ingénieur de production (H/F)

CITECH
Publiée le
Apache
Apache Tomcat

1 an
55k-65k €
Paris, France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur de production (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Mettre en œuvre des solutions techniques. 🔸 Réaliser des diagnostics pour identifier les causes de dysfonctionnement, proposer et mettre en œuvre des corrections et des solutions de "back-up". 🔸 Proposer des solutions pour améliorer les performances de son domaine d'activité. 🔸 Assurer, si nécessaire, l'interface des experts des autres domaines et gère les échanges avec les sous-traitants. 🔸 Définir les règles de bonne gestion des systèmes d'exploitation. 🔸 Concevoir si nécessaire les normes et les règles de bonne gestion et vérifier systématiquement leur application (sécurité informatique, qualité?). 🔸 Assurer la mise à niveau, l'assemblage, la cohérence et l'homologation des différents logiciels (progiciels, base de données, développements spécifiques) dans le respect de l'architecture retenue. 🔸 Prendre en charge l'intégration de nouvelles applications ou de progiciels (transactionnel et/ou batch) dans le respect des normes et procédures en vigueur 🔸 Effectuer la réception, la validation et le packaging des composants. 🔸 Installer et met à disposition des composants. 🔸 Réaliser la recette technique et l'homologation des composants / applications. 🔸 Participer à l'amélioration des processus et des outils d'industrialisation et de déploiement. 🔸 Travailler en relation étroite et permanente avec les équipes Etudes, Infrastructures et Sécurité. 🔸 Spécificités pour les tests techniques. 🔸 Prise de connaissance du changement et de son contexte technique. 🔸 Compléter le plan de tests proposé. 🔸 Préparer les infrastructures de tests. 🔸 Valider les documents et les procédures à destination de la production. 🔸 Réaliser les différents tests techniques. 🔸 Analyser les résultats. 🔸 Contribuer au diagnostic en cas de dysfonctionnement. 🔸 Rédiger les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production. 🔸 Constituer ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures. 🔸 Effectuer le reporting vers le Responsable Intégration. 🔸 Contribuer à l'amélioration continue. 🔸 Industrialiser les tests techniques récurrents (automatisation, outillage).

Freelance

Mission freelance
Développeur java H/F

Insitoo Freelances
Publiée le
Apache Kafka
Java
Springboot

2 ans
115-471 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur java H/F à Lille et périphérie. Contexte : Dans le cadre de cette stratégie ambitieuse, nous avons constitué une équipe restreinte pour créer un référentiel de données matières. Ce produit est à destination de nos collaborateurs. L’équipe restreinte est constituée seulement d'un Product Manager. Le développeur sera en proximité d'une équipe de dév mais n'en sera pas directement rattaché. Il travaillera également en collaboration avec des Data Ingénieur. Les missions attendues par le Développeur java H/F : Le développeur va construire une brique back qui s'accostera à d'autres briques digitales via des API ou du Kafka. Elle aura sa propre BDD. L'objectif sera de déduire des données descriptives Produit sur base de rapprochement identifiés par une brique digitale tierce. Ce produit n'existe pas et sera à construire from scratch. Une dimension architecture logicielle sera donc à prendre en compte. Il devra suivre les guidelines de développement. Ce chantier est ambitieux, volontariste et passionnant, nous recherchons donc un développeur Back à l’image de ce challenge. Ce développeur doit avoir une communication claire, une grande capacité de travail et d’organisation.

Freelance

Mission freelance
Ingénieur AppOps Expérimenté (H/F) - 78

Mindquest
Publiée le
Ansible
Apache Kafka
CI/CD

3 mois
100-450 €
Guyancourt, Île-de-France

Contexte : La prestation demandée se déroule au sein du Cluster Clientèles et plus particulièrement dans l’équipe des équipiers OPS (GRC/CSO/CCE) qui a en charge, entre autres, l’expertise technique et l’accompagnement des projets et du RUN pour nos partenaires. Pour assurer vos missions, vous vous appuierez sur les autres équipes spécialisées : système, réseaux, sécurité, CloudOps, etc. ainsi que sur les équipes du cluster. Mission : Au sein de l’équipe des APPOPS du cluster, vous aurez en charge : Administration d’une plateforme Kube avec l’ensemble de l’écosystème CI/CD. D’accompagner nos clients entités dans l’intégration de leurs projets sur les infra Natives (Kubernetes et son écosystème) D’acculturer et accompagner les clients sur les services Natif et autre technologie De collaborer au Build des socles techniques dans des environnements cloud et containers D’accompagner le déploiement des solutions d’infrastructure et utilisation des outils (Chaine CI/CD, outils de monitoring, aspects sécurités) Support niveau 1&2 des environnements de développement et de production De participer aux gestions des incidents et des crises De gérer l'après-crise et les incidents pour corriger l'utilisation, la mise en œuvre et le cycle de vie des modèles. De suivre la Gestion des changements De suivre le Capacity planning et le reporting FinoPPS

Freelance

Mission freelance
Développeur back java reactive ( H/F )

Insitoo Freelances
Publiée le
Apache Kafka
Java
Mongodb

2 ans
112-451 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur back java reactive ( H/F ) à Lille et périphérie. Contexte : Sur l'un des produits digitaux d'optimisation de vente, nous recherchons un développeur Back (Java Spring à partir de Java 11 ; MongoDB ; Kafka). Les missions attendues par le Développeur back java reactive ( H/F ) : -Réaliser les APIs, -Gérer les business Rules au sein de l'application -Aider au développement des features -Gérer le RUN du produit -Travailler de paire avec le/la PO, et une capacité de Release Manager... En tant que Backeu avec en appétence Java, vous savez contrôler la qualité des réalisations (TU / Sonar / review) et synchroniser avec les Lead Back et TechLead / PO. Il est important pour ce rôle d'avoir une bonne connaissance des tests unitaires en reactif ; ainsi que la connaissance de ce Framework.

Freelance
CDI

Offre d'emploi
Développeur Java/Angular (H/F)

Créalis Ingénierie
Publiée le
Angular
Apache Tomcat
API REST

6 mois
30k-50k €
Bordeaux, Nouvelle-Aquitaine

Au sein Créalis Bordeaux et pour le compte de notre client, vos missions seront essentiellement: Participer aux ateliers de conception technico fonctionnels Estimer vos charges et votre reste à faire Développer les composants répondant aux normes et standards des technologies utilisées Produire le code et utiliser un gestionnaire de configuration Participer activement aux daily et rituels du projet Écrire des tests unitaires Participer aux campagnes de tests Assurer la documentation et la capitalisation Participer à la vie de l'équipe

Freelance

Mission freelance
data engineer python spark anglais - 5 ans d'EXP

Innov and Co
Publiée le
Apache Spark
Kubernetes
PySpark

12 mois
100-600 €
Issy-les-Moulineaux, Île-de-France

Dans un secteur logistique en plein essor, en prise direct avec les problématiques actuelles (smart cities, environnement, géopolitique), et en pleine transformation technologique (véhicules autonomes, digitalisation, mobilité), DPD Group vous offre l’opportunité d’avoir un impact direct sur la gestion de colis du futur. Vous intégrerez l’équipe Analytics et contribuerez principalement au développement de la plateforme DataHub. Actuellement petite équipe autonome de 4 personnes engagées à 100% sur ce projet, l’équipe Analytics est intégrée au sein de l’équipe Data Science & Analytics de la DPSIN. L’objectif de la plateforme interne DataHub est de stocker les données historiques des activités et permettre leur requêtage efficient. Les données sont issues de et exploitées par divers acteurs – Marketing, Sales, OPS, IT, Data Science, … en central ou depuis les Business Units – pour des usages tels que la récupération simple de données historiques, la BI ou le machine learning. L’environnement de travail est international, avec des contacts quotidiens avec des équipes en France et à l’étranger. Les demandes d’utilisations de la plateforme croissent fortement. La plateforme DataHub en quelques faits : § 2023 : Forte croissance des usages de la plateforme (BI, requêtage ad-hoc, requêtages fréquents standardisés et hautes performances d’applications), enrichissement de l’offre de services (Data Viz avec Superset) § 2024 : Monter en charge sur les usages (plus de use cases !), étendre l’offre de services et améliorer l’expérience utilisateurs (Data Viz, Data lineage), optimiser l’usage de notre stack technique (Spark, Airflow...), généraliser l’usage de tables d’Apache Iceberg, poursuivre l’industrialisation des pipelines de traitement de données… o Les cas d’usages aujourd’hui en production : § 9 rapports BI servis § Requêtages fréquents (standardisés et tunés, avec ou sans API) par des applications :: 4 cas d’usages § Requêtage ad-hoc croissant des data scientists et équipes IT (+1000 requêtes / mois) o Volumes de données sous gestion active : § ~10 To de données § +15 flux de données § Flux de donné majeur : +100 millions d’évènements / jour d’évènements sur les colis Environnement technique : § Data Lake basé sur des technologies open source. § Architecture Cloud Kubernetes (Outscale Cloud) § Stockage des données sur du S3 (Outscale OOS) sous forme de fichiers Parquet (simples ou tables Iceberg) ou json § Query engine pour se connecter (S3 et autres DB) et requêter (SQL standard) les données : Dremio § Maintenance de tables Iceberg et requêtage de données avec Apache Spark § Automatisation des opérations et traitements de données en python avec Apache Airflow § Data Viz orientée métier avec Apache Superset § Data Viz orientée Monitoring IT avec Grafana § APIs développées en Python et Java § Gestion de version et CI/CD avec GIT Lab Organisation : § Equipe Produit de 4 personnes § Mode de travail Agile Scrum

Freelance
CDD
CDI

Offre d'emploi
DATA ANALYSIS - BA H/F

SMARTPOINT
Publiée le
Agile Scrum
Apache Hive
PL/SQL

1 an
10k-60k €
Paris, France

la prestation consiste à contribuer à/au-x- :  La documentation des spécifications fonctionnelles sur la base d'une expression de besoins validée et priorisée par le PO  Analyses et documentation des mappings entre les applications sources et le modèle d’entreprise tel que défini dans le projet  Analyses et documentation des mappings entre le modèle local et le model central.  L'évaluation des impacts et définition des moyens les plus pertinentes, leurs coûts et les risques/contraintes associées  Spécifications en user stories détaillées intégrant des critères d’acceptance et des cas de tests  L'assistance aux divers changements (analyse d'impact, remontées et support conduite de changement des utilisations, démarrage, déploiement)  La consolidation et la centratlsation des documentations techniques et fonctionnelles  La remontée des alertes  L'analyse des impacts des changements sur les niveaux de services (SLA /OLA)  La définition des scenarios BDD en assistance avec les différents Utilisateurs et/ou Bénéficiaires  La stratégie et L'assistance/support aux divers tests fonctionnels  L'intégration du produit dans l’architecture globale telle que définie par les différents Utilisateurs et/ou Bénéficiaires  La pérennité des pratiques Agiles au sein de la Feature / Agile Entity  Cérémonies de la Feature Entity FT / Entity Agile en étant axé sur les objectifs de l'itération, sa prévisibilité, sa vélocité…  L'atteinte des objectifs de l’entité tant sur le delivery qu'en production  L'assistance et résolution des problèmes Expertises :  Monde Bancaire et du fonctionnement des grandes organisations  Analyses Métier  Data Mapping et transformation complexe  Environnement anglophone  Outils potentiellement utilisés dans le cadre de la prestation: Business intelligence (Microsoft Power BI), SQL  Méthodologie : Agile Les livrables attendus sont :  Un produit fonctionnel en ligne avec les spécifications définies et validées  Un backlog Produit maintenu dans JIRA avec des user stories  documentées avec les critères d acceptances  estimées en terme d’étude ou de dev ( story points)  Des users stories liées à l’amélioration continue définie lors de rétrospection ou d’évaluation des pratiques agiles  Des documentations d’études présentant les moyens pertinents répondant aux spécifications métiers  Une documentation d'architecture fonctionnelle (et technique en s’appuyant sur l’entité) des uses cases, des collectes et traitements  Une documentation centralisée permettant de retrouver facilement les règles métiers implémentées  Une roadmap à court/moyen terme maintenue et documentée  Suivi et gestion des cérémonies agiles pour chaque Sprints( Sprint Planning , Back log refinement , Sprint Review, Démo, rétrospection , 3 Amigos) Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Agile Scrum  Hive  PL SQL  PostGreSQL

Freelance

Mission freelance
Responsable opérationnel d'applications

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Hive
Apache Kafka
Apache Spark

4 mois
100-1 500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous