Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 45 résultats.
Freelance

Mission freelance
DEVIENS #AUTEUR DE VIDEO Hadoop - Stockage et traitement des données

Publiée le
Big Data
Hadoop

4 mois
100-300 €
Saint-Herblain, Pays de la Loire
Télétravail partiel
Nous sommes une maison d'édition spécialisée dans la publication de livres et vidéos autour de l'informatique et de la bureautique. Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre vidéo qui portera sur Hadoop. "Pourquoi pas moi ? Je suis développeur(euse), expert(e) Big Data, ou formateur(trice)... et Hadoop n'a aucun secret pour moi. J’ai envie de partager mon expertise au plus grand nombre ! Participer à la création d'une vidéo me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Vous bénéficierez d'un accompagnement éditorial (sommaire, essai, méthodologie, suivi, montage vidéo...) La rémunération est proposée sous forme de forfait.
Freelance

Mission freelance
Architecte Infra transverse Virtualisation et stockage

Publiée le
Stockage
Virtualisation

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Architecte transverse Virtualisation et stockage ayant les spécialités suivantes : - VMWare Cloud Foundation (VCF) - VMWare réseau et sécurité (NSX) - Hyperconvergence vSAN - NAS de Netapp - SAN de DELL EMC - Expérience projet significative dans une ou plusieurs technologies du Stockage Objet La mission : - Etude et analyse des opportunités d'évolution des infras Stockage & Virtualisation (hyper convergence) - Mise en œuvre de projets d'infras en Stockage & Virtualisation - Support technique sur les technologies Stockage & Virtualisation - Formaliser (rédiger) les modes opératoires et les processus de delivery et de traitement des incidents récurrents - Assurer le reporting de l'activité
CDI

Offre d'emploi
Administrateur système Linux et stockage H/F

Publiée le

45k-50k €
Bron, Auvergne-Rhône-Alpes
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. Au sein de l'activité Services en région Auvergne-Rhône-Alpes, nous accompagnons plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'un grand groupe du secteur médical, vous rejoignez une prestation d'administrateurs systèmes et participez au maintien en conditions opérationnelles des infrastructures sous environnement Linux. • Maintenir en conditions opérationnelles les infrastructures systèmes Linux (Red Hat, CentOS, VIOS, AIX), matérielles et virtuelles et les infrastructures de stockage • Mesurer et optimiser les performances du système • Développer et mettre en œuvre des automatisations et des scripts afin d'améliorer l'industrialisation de la production et l'automatisation des tâches (Ansible) • Assurer les mises à jour, mises hors service, et montées de version • Gérer les droits d'accès aux systèmes • Analyser et traiter les incidents et les demandes escaladées • Signaler les obsolescences et les risques d'altération de la performance ou de la sécurité du système • Proposer des solutions d'évolution ou de remplacement • Installer, tester et mettre en production les nouvelles solutions • Assurer la traçabilité et l'exploitation des évènements survenus au sein du système • Etablir et mettre à jour tous les documents techniques nécessaires au maintien de l'infrastructure Environnement technique : Linux (RedHat, CentOS, VIOS, AIX), Ansible, Docker, stockage SAN (HP 3PAR, HP PRIMERA) et NAS (ISILON, Qumulo, StoreOnce,...) Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité. Contrat : En CDI, avec un démarrage selon vos disponibilités (nous acceptons les préavis) Localisation : prestation de client grand compte sur Lyon (08) Package rémunération & avantages : • Le salaire : rémunération annuelle brute selon profil et compétences • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation, prime de cooptation de 1000 € brut • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, engagements RSE Référence de l'offre : mq1wuc9arp
Freelance
CDI

Offre d'emploi
Architecte Réseaux et sécurité

Publiée le
Architecture
LAN
Réseau de stockage SAN

6 mois
Guyancourt, Île-de-France
Télétravail partiel
Le département Distributed Infrastructure & Network recherche l’excellence en en délivrant la qualité de service requise, en renforçant la maîtrise des risques opérationnels et des coûts. Les principaux services fournis se composent des infrastructures (Datacenters, Réseau LAN MAN WAN et télécom, Sécurité, Serveurs, stockage, service desk, services de production des applications métie)r. Les priorités pour ce cluster concernent la fiabilisation des traitements, le contrôle et la cohérence du dispositif international ainsi que l’optimisation des processus, du dispositif et des relations clients. La mission se déroule au sein du service "International Network Services" (INS) en charge des activités Build Réseaux & Sécurité (Ingénierie, Conception et Delivery) qui gère un parc de plus de 4000 équipements Réseaux & Sécurité et de 60 sites internationaux (sites terminaux, hubs et Data Center).
Freelance
CDI

Offre d'emploi
Expert système Unix et Stockage

Publiée le
Ansible
Linux
NetApp

1 an
45k-50k €
450-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
L'expert aura pour principales tâches de : Maintenir et optimiser les socles technologiques : Virtualisation KVM Plateformes IBM pSeries Stockage PureStorage & NetApp (blocs et objets) Maintenir et optimiser les systèmes d’exploitation : Linux (Red Hat) AIX Assurer le traitement des incidents de niveau 3 sur l’ensemble du périmètre Les livrables attendus sont : Comptes rendus détaillés des traitements d’incidents (niveau 3) Documentation technique complète sur les optimisations réalisées (socles, stockage, systèmes)
Freelance

Mission freelance
Ingénieur de données GCP (H/F)

Publiée le
Apache Spark
BigQuery
CI/CD

4 mois
400-460 €
Paris, France
Télétravail partiel
Au sein de l'équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d'un productowner, d'un data steward et d'un data ingénieur. Notre technique de stack est principalement constituée de Python, Spark, SQL, dbt, BigQuery, Airflow pour l'orchestration des traitements et Terraform ainsi que Terragrunt pour l'industrialisation. Le stack inclut également d'autres services de la Google Cloud Platform. En interaction avec les membres de l'équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe • Construire et maintenir des pipelines de données robustes et évolutifs • Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures évolutives capables de répondre aux besoins et à l'évolution rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l'évolutivité, la fiabilité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Livrables attendus : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets Expertises demandées pour la réalisation de la prestation.
CDI

Offre d'emploi
Data Engineer NiFi

Publiée le
Apache NiFi

40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑‍🚀👩‍🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
CDI

Offre d'emploi
Expert Infra Réseau Senior - Broadcasting

Publiée le

55k-60k €
Paris, Île-de-France
Télétravail partiel
Dans le cadre d'un environnement broadcasting et media, une entité en charge de la chaîne complète de traitement des médias (de la réception des contenus jusqu'à leur diffusion linéaire et leur publication numérique) souhaite renforcer ses équipes. La mission s'inscrit au sein d'un Centre de Diffusion et d'Échanges opérant des systèmes critiques de diffusion pour plusieurs chaînes nationales. Un Expert Infrastructure Réseau Senior est recherché afin d'intervenir sur l'infrastructure réseau et systèmes de ce centre, dans un contexte à forts enjeux de disponibilité, de sécurité et de performance. Activités principales / Livrables attendus * Rôle de référent infrastructure pour les activités d'installation et de MCO * Déploiement et intégration des réseaux métier d'échange et de diffusion * Mise en oeuvre et exploitation des environnements suivants : * Cisco NDFC - Fabrique Spine-Leaf en VXLAN * Cisco NDFC - Fabrique Spine-Leaf en IPFM 2110 * Firewalls Palo Alto (Panorama, templates, règles de sécurité, NAT) * Suivi des procédures de validation des matrices de flux * Mise en oeuvre des règles de sécurité réseau * Rédaction de la documentation technique, procédures et process * Formation et accompagnement des équipes de maintenance Environnement technique * Infrastructures réseau Cisco Nexus (fabriques Spine-Leaf) * Cisco NDFC * Virtualisation VMware ESX * Stockage NetApp * Firewalls Palo Alto (Panorama) * OS Windows & Linux * Environnements Broadcast / Vidéo IP
Freelance
CDI

Offre d'emploi
Data Engineer (H/F) - Lyon

Publiée le
Apache Airflow
MLOps
PySpark

1 an
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client, acteur majeur du secteur [énergie / distribution], recherche un.e Data Engineer confirmé.e pour renforcer ses équipes Data. Le poste combine Data Engineering et MLOps , avec une implication sur l’ensemble du cycle de vie des pipelines de données et modèles ML. Missions principales : Data Engineering (intervention sur 2 projets) Concevoir, développer et maintenir les pipelines de données pour 2 applications disctinctes. Assurer l’ingestion, la transformation et le stockage de données à grande échelle. Optimiser les traitements pour garantir des performances adaptées aux volumes traités. Mettre en place des mécanismes de qualité des données (contrôles, alertes, monitoring). Collaborer avec le pôle Développement pour définir les interfaces de données (API, bases de données). Documenter les flux de données et maintenir le catalogue de données. MLOps (Intervention sur 1 des 2 projets) Industrialiser l’entraînement des modèles ML pour l’optimisation du dimensionnement des groupes électrogènes. Déployer des pipelines CI/CD pour les modèles ML (versioning des données et modèles, automatisation de l’entraînement). Assurer le monitoring des performances des modèles en production (drift detection, métriques de performance). Collaborer avec les Data Scientists pour faciliter le passage des modèles du développement à la production.
CDI

Offre d'emploi
Chef de projet Data & BI H/F

Publiée le
IDT

39k-45k €
Auvergne-Rhône-Alpes, France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Chef de projet Data & BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la donnée, la BI et la conduite de projets décisionnels ? Ce poste est fait pour vous. En tant que Chef de projet Data & BI , vous êtes responsable du pilotage , du développement et du déploiement de notre écosystème : Côté build : Prendre en charge l’ensemble des phases projet : recueil & analyse des besoins métier, spécifications, développement et déploiement. Concevoir et modéliser les architectures décisionnelles (datawarehouse, datamarts, modèles relationnels). Développer et maintenir les dataviz dynamiques et intuitives (SAP BO, Need4Viz, Power BI, QlikSense). Mettre en œuvre et optimiser les flux d’alimentation ETL (SAP BODS souhaité). Réaliser les recettes techniques et fonctionnelles : TU, TNR, scénarios, tests de cohérence des données. Garantir la qualité, la cohérence et la sécurité des données dans le respect du RGPD Côté run : Assurer le suivi et la maintenance évolutive des solutions décisionnelles existantes. Diagnostiquer les problématiques data/BI et proposer des solutions pertinentes et performantes. Accompagner les utilisateurs dans l’appropriation des outils BI et assurer un support de proximité. Surveiller la qualité, la cohérence et l'intégrité des données dans le datawarehouse. Maintenir les plateformes BI : SAP BO 4.3, Need4Viz, 360Suite, Infoburst, Power BI, QlikSense. Optimiser les performances des requêtes SQL et des traitements décisionnels. C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements de chefferie de projet dans le domaine de la Data & BI exigeants. Vous aimez analyser, modéliser, concevoir et livrer des solutions décisionnelles de qualité , tout en innovant. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est votre manière de faire équipe : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2j Salaire : De 39000€ à 45000€ (selon expérience) brut annuel Famille métier : Data & BI Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Testeur automaticien

Publiée le
Appium
Cucumber
Gherkin

2 ans
400-600 €
Paris, France
Télétravail partiel
Contexte : Notre client (secteur média) développe des produits phares, tout en collaborant avec des acteurs stratégiques comme Netflix. Avec une approche centrée sur l'innovation et l'expérience utilisateur, notre client façonne les usages numériques de demain en proposant des services performants et adaptés aux attentes d'un public toujours plus connecté. Managé par le Head of QA, en transverse des différentes équipes et accompagné par le lead QA automatisation, la mission consiste à mettre en place des tests d’intégration et UI automatisés essentiellement autour de nos produits et process liés au traitement, au stockage des vidéos et de données/métadonnées liées, entre autres pour notre projet d’intégration avec Netflix. Votre rôle consistera à augmenter la couverture avec des tests automatisés UI robustes. Vous serez notamment amené(e) à : - Développer de nouveaux tests UI Web/App/big screens (box opérateurs, fire TV, Apple TV…) y compris transverses en termes de plateformes et produits via les librairies Appium et Selenium. - Migrer des tests automatisés existants vers le Framework custom. - Faire évoluer le Framework existant : amélioration des performances, support de nouvelles plateformes ... - Suivre l’exécution des tests automatisés via Argo Workflows et investiguer/maintenir/alerter. Démarrage janvier 2026
CDI

Offre d'emploi
Administrateur Office 365 H/F

Publiée le
SharePoint

Auvergne-Rhône-Alpes, France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Administrateur Office 365 H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par l’univers Microsoft 365 et l’assistance technique de haut niveau ? Ce poste est fait pour vous. En tant qu’ Administrateur Office 365 , vous êtes responsable du [XXX] et [XXX] de notre écosystème : Côté build : Participer au cadrage des demandes spécifiques dans le cadre de l’offre d’accompagnement personnalisé Réaliser des actes d’administration sur les consoles Microsoft 365 (Exchange Online, Azure AD, SharePoint, Teams) Contribuer à la mise à jour et à l’amélioration continue des procédures internes Utiliser des outils de migration tels que ShareGate pour les transferts de données SharePoint / OneDrive Collaborer avec les référents internes et les équipes N3 pour fiabiliser le périmètre Microsoft 365 Côté run : Traiter les incidents et demandes N2 dans l’environnement Microsoft 365 via l’ITSM (ServiceNow) Diagnostiquer et résoudre des problématiques techniques et fonctionnelles complexes Garantir le support technique sur l’ensemble du périmètre Microsoft 365 décrit Assurer le reporting régulier de l’activité : SLA, backlog, alertes Tracer systématiquement chaque intervention dans l’outil ITSM Contribuer à maintenir un haut niveau de satisfaction utilisateur C’est votre parcours Vous avez au moins 2 ans d’expérience dans des environnements d'administration exigeants. Vous aimez résoudre des problématiques complexes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Microsoft Office 365 (Exchange Online, Azure AD, SharePoint, Teams) Service Now PowerShell C’est votre manière de faire équipe : Sens du service Autonomie Travail d'équipe Esprit de synthèse C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybride Salaire : De 30000 € à 34000 € (selon expérience) brut annuel Famille métier : Administration poste de travail Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
CDI

Offre d'emploi
Data Engineer Expert Elastic Stack - F/H

Publiée le

Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Data Engineer Expert Elastic Stack au sein de nos équipes pour l'un de nos clients. Le contexte ? La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l'essor de nos infrastructures et l'évolution des technologies associées, ou encore l'automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l'organisation de la société et de ses Clients (équipes applicatives et socles multiples et dispersées). Au sein de la société, dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l'équipe « Data4Ops », au sein du Domaine d'Expertise « Automatisation et Observabilité » Cette équipe a la charge de structurer les données dites « opérationnelles » à savoir les données utiles à l'ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data de l'entreprise (basée sur les principes/concepts Data Mesh) et en relation avec le PM (Product Manager) Observabilité Vos missions ? - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d'automatiser les pipelines d'ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, ...) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l'entreprise (flux : collecte, traitement, stockage et leur cycle de vie) -Rédiger les documents fonctionnels et techniques, d'exploitation, en veillant au respect des normes existantes - Mettre en oeuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l'entreprise pour prise en compte des flux de données - Développer les cas d'usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Stack Elastic OpenSource
Freelance

Mission freelance
Développeur Back End/QA automatisation

Publiée le
Apache Kafka
API REST
AWS Cloud

2 ans
400-600 €
Paris, France
Télétravail partiel
Contexte : Notre client (secteur média) développe des produits phares, tout en collaborant avec des acteurs stratégiques comme Netflix. Avec une approche centrée sur l'innovation et l'expérience utilisateur, notre client façonne les usages numériques de demain en proposant des services performants et adaptés aux attentes d'un public toujours plus connecté. Managé par le Head of QA, en transverse des différentes équipes et accompagné par le lead QA automatisation, la mission consiste à mettre en place des tests d’intégration et UI automatisés essentiellement autour de nos produits et process liés au traitement, au stockage des vidéos et de données/métadonnées liées, entre autres pour notre projet d’intégration avec Netflix. Description détaillée : Votre rôle consistera à construire et intégrer tests et des outils de tests robustes et évolutifs pour nos produits. Vous serez notamment amené(e) à : - Créer et maintenir des mocks/stubs d’API REST et Kafka. - Mettre en place et maintenir des lancements de tests via Argo CD/ Argo Workflows - Rédiger les étapes de tests automatisés sous la forme de scripts Gherkin. - Intégrer des tests dans une architecture Java existante pour être utilisés aussi dans le cadre de tests end to end. Télétravail : 3 jours par semaine Date de début : A partir du 2 janvier 2026
CDI

Offre d'emploi
Architecte data engineering - Industrie H/F

Publiée le

40k-50k €
France
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : * Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA) ; * Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) ; * Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités) ; * Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data ; * Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques ; * Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
45 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous