Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 32 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
INGENIEUR SYSTEMES INDUSTRIELS

HEEVOX
Publiée le
Active Directory
Administration systèmes et réseaux
Batch

2 ans
40k-65k €
Île-de-France, France

INGENIEUR SYSTEMES INDUSTRIELS Démarrage : ASAP Durée : Longue Localisation : Ile de France (Proche Paris) Télétravail : 50% Profil : Experience : Expérience : > 4 ans Mission : Intégration Système : Travailler en étroite collaboration avec les Architectes Produits et Responsables de Matériel pour intégrer et adapter les systèmes informatiques aux nouveaux postes et serveurs, en incluant les drivers et mises à jour d'OS. Intégration Applicative : Collaborer avec les Responsables Produits Logiciels pour assurer l'intégration des applications sur le master informatique. Maintenance et Sécurité : Définir et intégrer les outils de maintenance, de supervision et les règles de sécurité, en collaboration avec les Mainteneurs et l'équipe Sécurité. Déploiement et Gestion : Contribuer à la mise en place de solutions de déploiement à distance et de gestion des inventaires de parc ainsi que des licences. Documentation et Support : Participer à la rédaction de documents techniques et au soutien du déploiement et de la maintenance, tout en assurant une veille technologique constante.

Freelance

Mission freelance
Analyste d’exploitation / Intégrateur

DATACORP
Publiée le
DevOps
Exploitation

12 mois
200-250 €
Rouen, Normandie

EN MODE 1 – Mode Industriel · Vérifier les critères d'exploitabilité d'une nouvelle version applicative (VABE), sécuriser et réaliser son installation et sa mise en production (selon les actions qui lui seront confiées) sous le pilotage du Responsable d’Applications en Exploitation (RAE), · Procéder aux différentes installations applicatives sur les environnements nécessaires · Réaliser les demandes de travaux complexes, · Gérer les incidents affectés à l’exploitant N2, · Contribuer à la gestion des problèmes, · Participer aux exercices de plan de reprise d'activité, · Alimenter les équipes du Pilotage de la Production (supervision N1) en procédures d’exploitation et fiches d’actions, EN MODE 2 – Mode Dédié En DEVOPS : · Au vu des objectifs de l'incrément, il identifie, conceptualise, construit et met en place le niveau d'exploitabilité nécessaire au produit : supervision, orchestration, sauvegarde, automatisation, documentation · Il s'inscrit pleinement dans les enjeux et contraintes de l'équipe produit en termes de time to market et de delivery. Il co-construit avec le Responsable d’Applications en Exploitation (RAE) une participation active à toutes les cérémonies, inscrit ses tâches dans les outils utilisés au même titre que les autres membres de l'équipe produit. Il s'attache à délivrer dans les temps, est rythmé par les sprints et incrément du produit. En TASK FORCE : · Il propose, construit et met en place le niveau d'exploitabilité attendu pour l'application : supervision, orchestration, sauvegarde, documentation, transfert de connaissance aux N1-N2 Industriel. · Il s'inscrit au rythme et rendez-vous définis par la Task Force. Ses travaux sont suivis par le Responsable d’Applications en Exploitation (RAE) Infos complémentaire : - 09H-17H00 - 3jrs/semaine de télétravail

Freelance

Mission freelance
Data Ingénieur Big Data

KEONI CONSULTING
Publiée le
Agile Scrum
Hadoop
PySpark

12 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine

Contexte de la mission : Dans une équipe de 6 personnes en multi sites, le consultant participera aux développements informatiques sur les technologies Hadoop, HDFS, Hive, Spark Sql et PySpark, Sqoop MISSIONS : · Participation au maintien en conditions opérationnelles · Conception · Développements · Livraisons · Recettes MISSIONS : · Participation au maintien en conditions opérationnelles · Conception · Développements · Livraisons · Recettes

Freelance
CDI

Offre d'emploi
Tech Lead Big data H/F

Proxiad
Publiée le
Apache Hive
Hadoop
HDFS (Hadoop Distributed File System)

3 ans
10k-60k €
Île-de-France, France

Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement Dans ce cadre la prestation consiste à contribuer à/au(x) : - Développement Spark/Scala et HIVE - Traitement d'un gros volume de données - Environnement Hadoop - Environnement Anglophone - Environnement Agile Les livrables attendus sont : - Revue de code et re-factoring - Normes de développements Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Hive

CDI

Offre d'emploi
Chef de projet infrastructure H/F

PROXIEL
Publiée le
Architecture
Infrastructure
Système d'exploitation

38k-45k €
Montpellier, Occitanie

Nous recherchons un Chef de projet infrastructure H/F en CDI, afin d’intégrer notre partenaire basé sur Montpellier. Missions : - Le pilotage de plusieurs projets, - Le suivi financier sur un périmètre : maitrise des budgets, des prévisions de coûts, de marge, etc, - Mener la conception technique, - Anticiper et estimer les besoins en infrastructures, logiciels et sous-traitance. Avantages : Mutuelle entreprise – Prévoyance - Tickets restaurants - Prime de vacances – Abonnement transport-Jours de congés supplémentaires – Télétravail – Newsletters pour que chaque salarié puisse être informé des évènements et de l’évolution de la société.

Freelance
CDI

Offre d'emploi
Expert Big Data & GCP

KLETA
Publiée le
Ansible
Apache Kafka
Apache Spark

2 ans
10k-88k €
Paris, France

Au sein d'une équipe d'expertise sur le volet Ops & Architecture vous intégrez la team en tant qu'architecte Cloud GCP & DevOps Big Data. Vos missions sur ce volet : Administration de la plateforme Hadoop présente Développer et continuer la migration vers GCP sur certaines applications Excellente maîtrise de Kubernetes attendues Connaissance complète de l'environnement Big Data et de la culture DevOps (Hadoop, Kafka, Elastic, Ansible, Kubernetes...) Endosser le rôle de référent technique sur le sujet Big Data

Freelance

Mission freelance
Référent technique MLOps

CAT-AMANIA
Publiée le
Apache Kafka
Docker
Elasticsearch

2 ans
500-680 €
Paris, France

Au sein d'un client du domaine bancaire, vous intervenez au sein de la DSI en qualité de Référent technique MLOps. Dans ce cadre, votre quotidien s'articule autour des missions suivantes : mettre en place l'outillage Datascience et MLOPS et identifier les patterns pour un usage global évaluer et adpoter de nouvelles technologies et méthodologie pour améliorer les processus MLOps et l'efficacité de l'équipe Diriger l'élaboration et la mise en oeuvre de pipelineSuperviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes interne Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).s / solutions MLOps pour l'entrainement, le déploiement et la surveillance des modèles ML

Freelance

Mission freelance
Ingénieur full stack Python / Vue Js / Node Js

Etixway
Publiée le
Docker
Flask
Gitlab

1 an
440-500 €
Île-de-France, France

Ingénieur full stack Python / Vue Js / Node Js Niveau requis plus de 8 ans d'expériences Maîtrise des langages d’analyse et de traitement de données (Python Flask – Pandas – Plotly…etc) en POO (Programmation Orientée Objet) Maîtrise des langages de développement front-end (SPA vue.js, node.js) Pratiques de développement et déploiement continue (Gitlab, Docker, SonarQube, CheckMarx, …) Maitrise des architectures BigData (Hadoop, HBase, HDFS) Animation d’ateliers de conception et de communauté Autres Compétences souhaitées Sens du service (volonté forte de faire avancer les chantiers, capacité à analyser les demandes, à aller au bout des besoins) Etre autonome et savoir rendre compte Qualité relationnelle et capacité à travailler en équipe Sens de l’initiative et force de proposition Rigueur et qualité rédactionnelle (documents de capitalisation, documents de synthèse des interventions, formalisation et planification des tâches) Capacité à coacher et faire progresser les autres Adaptabilité aux contextes grands comptes

Freelance

Mission freelance
Ingénieur Big Data

CS Group Solutions
Publiée le
Apache Kafka
Apache Spark
Hadoop

6 mois
300-3k €
Tour-en-Bessin, Normandie

Nous recherchons un Ingénieur Big Data Compétences techniques: Hadoop Hive - Confirmé - Impératif Kubernetes - Junior - Important Description détaillée: Il s’agit de participer à la migration de données hébergées sur une plateforme obsolète Hortonworks vers la solution cible. La mission comprend 3 activités principales : - Gestion de la plateforme actuelle Hortonworks 2.6 (run) - Construction de la plateforme cible sur openshift (build) - Préparation à la migration depuis Hortonworks vers openshift (build) Un membre de l’équipe participera également à ces mêmes activités Savoir-faire : - Maitrise de Kafka et Spark - Connaissance de la plateforme Hortonworks et du concept de Big Data - La connaissance d’openshift est un plus - Automatisation (python, shell, SQL, ansible) - Processus ITIL

CDI

Offre d'emploi
Chef de projet Infra/Obsolescence - H/F

TRSB
Publiée le
Hadoop
KPI
Kubernetes

44k-51k €
Paris, France

Mission : Piloter le programme Obsolescence en assurant l’exécution du plan de levée d’obsolescence du socle et piloter le dispositif global associé. · Consolide le plan pluriannuel de levée d’obsolescence à partir des roadmap Produits, en lien avec les PO et les Responsables d’Activités ; · Pour chaque année, définit le plan de traitement : inventaires consolidés, périmètres d’actions et objectifs de traitement, budget et ressources ; · Engage les projets associées du Plan Projets et organise les travaux ; · Coordonne la communauté des Squad leads du socle et leurs PO et tout autre ressources engagés dans le programme ; · Définit et publie les KPI de suivi ; et réalise les Contrôles Permanents associés · Gère les budgets ; · Gère les risques et met en œuvre les mesures d’atténuation ; · Suit les demandes de dérogations et alerte sur les risques associés (financier, sécurité, opérationnel) ; · Organise et anime les Comités associés : mensuels NDC, stratégiques · Contribue à l’animation et à la performance du Processus de Gestion des Obsolescences

Freelance
CDI

Offre d'emploi
Consultant(e) AMOA Big Data / Data - Bordeaux (33)

Accelite
Publiée le
Agile Scrum
Alteryx
AMOA

13 mois
40k-50k €
Bordeaux, Nouvelle-Aquitaine

En tant que Consultant(e) AMOA Big Data / Data , vous accompagnez la modélisation et à la mise en œuvre des solutions décisionnelles (reporting stratégique, opérationnel, etc.) la mise en œuvre des usages concernant les données des services Solidarités et Droit à l’information. Les solutions à mettre en œuvre le seront sous une architecture technique Hadoop/Hive ; les outils de manipulation des données : Tableau et Alteryx. De plus, vous participez à l’enrichissement des dictionnaires de données sur le périmètre concerné ainsi qu’à la modélisation des datamarts décisionnels répondant aux cas d’usages du projet. Les activités seront menées en méthode dite agile . La durée des sprints est de trois semaines. Le nombre de sprints sera de 9. À ce titre, vous aurez pour rôle : -Accompagnement et interface entre Métier et MOE sur les solutions d’architecture data mises en place -Animer les réunions avec les utilisateurs et l’équipe de développement (une réunion par semaine, de 5 à 10 participants par réunion) -Recueillir et restituer les indicateurs -Tâches attendues pendant un sprint : Analyser les user-stories prises en compte dans les sprints et animer les ateliers métiers associés ; Modélisation fonctionnelle des objets pivots et des datamarts ; Préparer et conduire les recettes -Réalisation d’un mode opératoire, façon Tutoriel, pour que les métiers puissent construire des rapports en autonomie. Cela pourra être sous forme de document de type Powerpoint avec un maximum de 30 slides -Réalisation/automatisation de rapports et d’indicateurs sur demande des métiers -Accompagnement des métiers dans l’utilisation de la solution S.I mise en œuvre -Réalisation de documents sur le fonctionnement de l’outil à destination de la MOA. Les documents seront sous format de type Word. Ils devront être exhaustifs en termes de périmètre de fonctionnalités mise en œuvre.

Freelance
CDI
CDD

Offre d'emploi
DÉVELOPPEUR JAVA / BIG DATA H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

3 ans
50k €
Paris, France

La prestation consiste à contribuer à/au(x) : Maintien de l'environnement legacy et contribution au projet de migration de l'application vers le Big Data. - Mise en place de la One Plateforme (On premise + Cloude public) - Challenge des choix architecturaux - Audit du codes existants et solutions de factorisation du code - contribution à la validation des futurs développement - Développements, tests unitaires et homologation technique sur des composants applicatifs dans les plannings et délais demandés. La mission doit être effectuée dans le cadre des normes du projet. - Assistance sur les développements produits jusqu'à la mise en production. - Support de production

Freelance

Mission freelance
Data Ingénieur/Spark Scala (F/H)

SMARTPOINT
Publiée le
Apache Spark
Git
Hadoop

12 mois
470-530 €
Île-de-France, France

Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de data Engineering Dans ce cadre la prestation consiste à contribuer à/au(x) :  Recueil et à l'analyse des besoins métier et des processus de bout en bout  La redaction des spécifications techniques.  L'assistance et contribution aux instances projet.  La sécurisation des jalons stratégiques  Suivi et au dépannage de la production pour son maintien en conditions opérationelles Envrionnement technique : Juptyper Lab, ML Flow Environnement Agile Livrables attendus Les livrables attendus sont : - Dévéloppements : Python, système RAG, implémentation des Guardrails, prompt ingénierie) - Contribution aux chantiers transverses : Architecture, Sécurité - Documentation technique de la solution - Contribution à la préparation des instances projets Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Compétences en développement (Shell unix, Perl, PHP, Python, git, github)  Continuous Integration  Hadoop (Big Data), Spark  Python

Freelance
CDI

Offre d'emploi
DataOps Hadoop

KLETA
Publiée le
Big Data
Hadoop

3 ans
10k-86k €
Paris, France

Architecture et Conception : Concevoir, mettre en œuvre et maintenir l'architecture Hadoop en fonction des besoins de l'entreprise. Élaborer des plans d'expansion et d'évolution pour les clusters Hadoop. Collaborer avec les équipes de développement et d'infrastructure pour concevoir des solutions adaptées aux besoins spécifiques du projet. Installation et Configuration : Installer, configurer et déployer les clusters Hadoop en utilisant les meilleures pratiques. Gérer les configurations, les mises à jour et les correctifs des composants Hadoop. Surveillance et Optimisation : Surveiller les performances du cluster Hadoop et identifier les goulots d'étranglement. Optimiser les performances en ajustant la configuration, en mettant à l'échelle le matériel ou en optimisant les requêtes. Mettre en place des outils de surveillance et des alertes pour détecter les problèmes potentiels. Sécurité : Mettre en œuvre et maintenir des stratégies de sécurité robustes pour le cluster Hadoop. Gérer l'accès aux données sensibles et aux ressources du cluster en utilisant des technologies telles que Kerberos, LDAP, etc. Effectuer des audits de sécurité réguliers et remédier aux vulnérabilités identifiées. Gestion des Données : Concevoir et mettre en œuvre des pipelines de données pour l'ingestion, le traitement et la distribution des données. Assurer la qualité des données en mettant en place des processus de nettoyage, de normalisation et de validation des données. Intégrer et gérer différents types de données, y compris les données structurées, semi-structurées et non structurées. Automatisation et Orchestration : Automatiser les tâches courantes telles que la sauvegarde, la récupération, la gestion des ressources, etc. Mettre en place des workflows d'orchestration pour coordonner les tâches complexes entre les différents composants du cluster Hadoop. Développement et Support : Fournir un support technique aux équipes de développement et d'analyse des données. Développer des outils et des scripts personnalisés pour faciliter l'administration et la gestion du cluster Hadoop. Collaborer avec les équipes de développement pour optimiser les applications et les requêtes pour le cluster Hadoop. Formation et Documentation : Former les membres de l'équipe sur l'utilisation et la gestion du cluster Hadoop. Documenter les processus, les configurations et les bonnes pratiques pour faciliter la collaboration et le transfert de connaissances. Veille Technologique : Suivre les tendances et les avancées technologiques dans le domaine du Big Data et de l'analyse de données. Évaluer de nouvelles technologies et proposer des solutions innovantes pour améliorer l'efficacité et les performances du cluster Hadoop.

Freelance

Mission freelance
TECH LEAD BIG DATA/SPARK/SCALA

OCSI
Publiée le
Apache Spark
Hadoop
Scala

12 mois
100-600 €
Île-de-France, France

CDI

Offre d'emploi
Analyste d'Exploitation Technique

WE +
Publiée le
Système d'exploitation

10k-46k €
Centre-Val de Loire, France

Vos missions consisteront à contribuer à/au (x): Suivi du Run, Gestion des incidents N2 sur consignes et procédures, Mettre en oeuvre les actions nécessaires pour rétablir les services ou identifier les bonnes escalades, Rédiger les procédures nécessaires liées au domaine d'intervention et la mise en oeuvre et MCO des consignes, Réaliser les statistiques sur les incidents rencontrés et sur la disponibilité des infrastructures et des applications, Création des tableaux de bord et de suivi (Excel), Collecter, analyser les métriques de supervision et permettre le traitement des signaux faibles pour éviter la survenance des incidents, Contribuer à la gestion des problèmes pour remonter les dysfonctionnements techniques ou fonctionnelles, Analyse sur les applications et les infrastructures afin d'anticiper les incidents, Réaliser les interventions planifiées dans son domaine de compétences: livraison HO, HNO, contribuer aux changements, relance d'applications ou d'environnements, Assurer le support au pilotage, Assurer le support technique du site distant et faciliter les remontées et les réponses aux besoins pour les acteurs, Rédaction des procédures pour le pilotage, Suivi des indicateurs et des écarts, Participer aux astreintes et aux interventions régulières,

32 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous