L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 429 résultats.
Offre d'emploi
Ing Devops - DigitalBackbone
RIDCHA DATA
Publiée le
CI/CD
DevOps
Google Cloud Platform (GCP)
1 an
Île-de-France, France
RIDCHA DATA est à la recherche d’un DevOps Engineer GCP – Confirmé pour accompagner son client acteur majeur dans le secteur industrie. 1- Descriptif du poste Au sein de l’équipe produit Digital Backbone, l’Ingénieur DevOps qui contribuera au design, construction et aux opérations de la platforme. Le projet se situe aussi dans le cadre de l’ouverture de l’entreprise vers le cloud et la recherche des solutions pour l’échange des données entre les applications en interne et les applications dans le cloud tout en garantissant leur sécurité. Expertises recherchées : • Mise en place des services cloud public (GCP) intranet et usines • Mise en place d’une automatisation de ces services via Ansible et Terraform • Mise en place d’une chaine de CI/CD pour le déploiement de ces services d’un environnement de développement jusqu’à l’environnement de production • Toute mise en place de service s’accompagne d’un monitoring • Gérer un environnement Docker • Gérer sur ces environnements l’aspect sécurité et finops (gestion des couts) • Support L3 sur la plateforme • Support au RUN sur la plateforme. 2- Livrables • Livrable de la platforme Cloud GCP, Intranet et usines. • Documentation technique • Mise en place des dashbord monitorant les services déployés • Site Reliability engineering • Coaching des équipes projets au travers des supports et standard • Support du dev au RUN vis-à-vis des projets livrés.
Mission freelance
Data Engineer Senior F/H
SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
Offre d'emploi
Scrum Master Data Senior
Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps
3 ans
54k-58k €
550-580 €
Paris, France
Objectifs de la mission : Uniformiser les pratiques Agile sur l’ensemble du périmètreStabiliser et sécuriser les cycles de sprint Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation Mise en place / harmonisation de la Definition of Ready et Definition of Done Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory.
Offre premium
Offre d'emploi
QA Data confirmé (Databricks / Azure)
VADEMI
Publiée le
Azure
Databricks
3 ans
Châtillon, Île-de-France
Testeur confirmé avec compétences Data Analyste Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data . Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité.
Offre d'emploi
Architecte Fonctionnel SI & Data – Senior
RIDCHA DATA
Publiée le
TOGAF
1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans un environnement multi-BUs, multi-outils et multi-processus , une grande organisation renforce sa Direction des Systèmes d’Information Interne afin de structurer et faire évoluer son Système d’Information Corporate. Le poste s’inscrit dans une démarche de transformation SI & Data , avec un fort enjeu d’alignement stratégique, de gouvernance et de valorisation de la donnée. 🚀 Missions principales 🏗 Architecture fonctionnelle & urbanisation SI Définir et faire évoluer l’architecture fonctionnelle cible du SI Maintenir la cartographie fonctionnelle Définir les principes d’urbanisation Garantir la cohérence des flux et processus métiers Contribuer aux choix structurants et aux études d’opportunité 📊 Gouvernance SI & Data Structurer et animer la gouvernance SI et Data Piloter les instances de gouvernance Garantir la qualité et la cohérence des données Mettre en place et suivre les référentiels 🗺 Pilotage de la roadmap SI Consolider la feuille de route SI Identifier et piloter les dépendances entre projets Contribuer aux arbitrages stratégiques Accompagner les métiers et la DSI sur les cadrages complexes 🤝 Accompagnement transverse Assurer la cohérence globale des solutions SI Intervenir sur les sujets à forte complexité ou à enjeux stratégiques Animer les équipes projets (chefs de projet, AMOA, référents data…) Favoriser l’usage et la valorisation de la donnée 🧩 Périmètre fonctionnel SI Finance SI RH & Activité CRM & Connaissance Client Data & IA
Offre d'emploi
Ingénieur Systèmes et Réseaux - F/H
Experis France
Publiée le
40k-47k €
Orléans, Centre-Val de Loire
Contexte Nous recrutons un Ingénieur Systèmes et Réseaux - F/H pour intervenir en mission chez l'un de nos clients du secteur mutualiste, sur un site basé à proximité de Orléans. Vous intégrez l'équipe Systèmes Windows, rattaché au Responsable Systèmes, avec une mission mixte RUN/BUILD contribuant à la maintenance et à l'évolution du Système d'Information. Vous êtes garant de la disponibilité, de la performance et de la continuité des infrastructures systèmes Windows, tout en participant activement aux projets d'évolution et d'industrialisation. Vos missions Maintien en conditions opérationnelles (RUN) Assurer la gestion des demandes, des incidents et le maintien en conditions opérationnelles Garantir la continuité de service, la disponibilité et la performance des infrastructures Windows Superviser et monitorer les environnements en production Évolution et industrialisation (BUILD) Participer aux projets d'évolution, de renouvellement et d'industrialisation des infrastructures Contribuer à l'automatisation des tâches d'administration via PowerShell Mettre en œuvre les nouvelles solutions et assurer leur intégration dans l'environnement existant Documentation et bonnes pratiques Rédiger et maintenir à jour la documentation technique et d'exploitation Appliquer et garantir les normes et standards du service Contribuer à l'amélioration continue des processus et procédures
Offre d'emploi
Ingénieur(e) Cybersécurité - Data Collect & Transformation - H/F
AMD Blue
Publiée le
CyberSoc
Cybersécurité
ELK
3 ans
57k-63k €
500-550 €
Île-de-France, France
Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Cyber . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Cyber . Contexte de la mission : Notre client recherche un(e) Ingénieur(e) Cybersécurité pour accompagner ses équipes dans l'objectif d'assurer un service d'ingénierie cybersécurité, notamment autour du déploiement d'un SOC et de la collecte de logs sécurité. L'enjeu est de renforcer l'enrichissement d'un puits de données sécurité pour permettre la corrélation d'événements et la mise en place d'alerting. Descriptif de la mission : Les missions sont : Mise en place et définition des mécanismes de collecte. Définition des patterns d’architectures de la collecte. Définition et mise à jour de l'architecture de l'infrastructure (schémas, flux, routage). Déploiement de ces dispositifs sur le socle d'infrastructure et sur les entités en filiales ou à l'étranger. Définition et mise en œuvre d'une stratégie de collecte uniforme et standardisée via Ansible. Mise en place de pipelines d'enrichissement de la donnée. Maintien en condition opérationnelle de la plateforme de collecte et des agents. Mise en place de processus d’onboarding de nouvelles sources de logs ou d’assets. Évolution du système de monitoring de l'infrastructure et de l'alerting sur la collecte. Création et évolution de dashboards avec Kibana. Réponse aux audits réglementaires et internes. Support et conseil aux entités utilisatrices des services. Contrôle de l'exhaustivité et de la qualité de la donnée collectée.
Mission freelance
Tech Lead Data & BI (Snowflake / dbt / Power BI)
EMGS GROUP
Publiée le
Data modelling
DBT
Microsoft Power BI
6 mois
500-600 €
Paris, France
ans le cadre du renforcement d’une équipe data, nous recherchons un Tech Lead Data & BI pour piloter la delivery technique de solutions data et de visualisation. Missions : Pilotage technique des projets data et BI Conception et mise en œuvre de modèles de données et datamarts Développement et structuration de projets dbt (modèles, tests, documentation) Mise en place de pipelines industrialisés (orchestration, CI/CD, contrôles qualité) Définition des standards et bonnes pratiques Power BI (templates, performance, gouvernance) Construction et optimisation des modèles sémantiques et des reportings Accompagnement et montée en compétences des équipes Contribution au cadrage technique des nouvelles initiatives Livrables attendus : Modèles de données Snowflake robustes et documentés Pipelines data industrialisés et sécurisés Modèles sémantiques et rapports Power BI performants Standards et guides de bonnes pratiques (connexion, gouvernance, templates)
Mission freelance
Administrateur Systèmes & Réseaux Linux (H/F)
Link Consulting
Publiée le
Centreon
Firewall
GLPI
12 mois
350-400 €
31860, Labarthe-sur-Lèze, Occitanie
Notre client, acteur technologique spécialisé dans les solutions informatiques et les infrastructures systèmes, recherche son futur Administrateur Systèmes & Réseaux Linux (H/F) afin de renforcer ses équipes techniques. Vos missions : Intégré à une équipe technique spécialisée en infrastructures et virtualisation, vous interviendrez sur la conception, le déploiement et le maintien en conditions opérationnelles d’environnements systèmes. À ce titre, vous serez notamment amené à : * Concevoir l’architecture technique des systèmes à partir des besoins et cahiers des charges clients * Définir l’intégration des infrastructures dans les environnements réseaux en tenant compte des enjeux de sécurité, de redondance et de sauvegarde * Déployer et configurer des machines virtuelles Linux sur des environnements VMware ou Proxmox * Participer aux phases de tests, validation et mise en production des solutions déployées * Rédiger les documentations techniques (architecture, exploitation, maintenance) * Mettre en place et maintenir les outils de supervision et de monitoring * Assurer le support et la maintenance de niveau 3 des infrastructures systèmes Les compétences techniques * Linux (RedHat, CentOS, Debian, Oracle Linux…) * Virtualisation : VMware, Proxmox * Bases de données : PostgreSQL * Outils de haute disponibilité / clustering : DRBD, Pacemaker * Outils de supervision : Centreon * Outils ITSM : GLPI * Réseaux et sécurité : VPN, firewall, architecture réseau
Mission freelance
Data Governance Manager (Stewardship & Adoption)(H/F)
Freelance.com
Publiée le
Big Data
5 mois
360-440 €
Bordeaux, Nouvelle-Aquitaine
Objectif de la mission Structurer, déployer et faire adopter la gouvernance data au niveau opérationnel, en mettant en place une communauté de Data Stewards et en rapprochant les équipes data des métiers. 🧩 Ce que vous allez faire concrètement Vous intervenez dans un rôle transverse , orienté cadre, adoption et animation , et non comme Data Steward opérationnel. 🔹 Structuration de la gouvernance Définir et déployer le modèle de Data Stewardship (rôles, responsabilités, rituels) Clarifier les interactions entre Data Owners, Data Stewards, équipes data et techniques 🔹 Animation & adoption Créer et animer une communauté de Data Stewards Accompagner la conduite du changement Développer l’usage des outils de gouvernance (catalogue, documentation…) 🔹 Onboarding & outils Construire les kits, standards et supports pour les Data Stewards Accélérer la documentation des assets data 🔹 Alignement métier & data Organiser des ateliers avec les équipes métiers Identifier les irritants et besoins Structurer et prioriser un backlog transverse 🔹 Intégration dans les projets Intégrer la gouvernance dès les phases de cadrage (“governance by design”) Étendre la couverture du data catalog (y compris sur des sujets IA) ⚙️ En résumé C’est une mission de pilotage et d’animation de la gouvernance data , avec un fort enjeu d’ adoption, de structuration et d’impact métier , dans un environnement déjà outillé.
Offre d'emploi
Administrateur Systèmes / Réseaux & Sécurité H/F
DAVRICOURT
Publiée le
Réseaux
35k-40k €
Arras, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Administrateur Systèmes / Réseaux & Sécurité pour l'un de nos clients. Vous interviendrez sur un projet de transformation et de centralisation du système d'information situé à proximité d'Arras. À ce titre, vos missions quotidiennes seront les suivantes : - Administrer et maintenir les infrastructures systèmes et réseaux (Windows / Linux) ; - Garantir la disponibilité, la performance et la fiabilité des environnements ; - Gérer des infrastructures multi-sites et hétérogènes ; - Mettre en place des outils de supervision et de monitoring ; - Participer à la centralisation et à l'harmonisation du SI ; - Définir et renforcer les politiques de sécurité des systèmes d'information ; - Gérer les accès, habilitations et sécurisation des flux ; - Identifier les risques et piloter les plans de remédiation ; - Collaborer avec les prestataires et participer aux choix techniques ; - Assurer un support de niveau avancé et contribuer à l'amélioration continue.
Mission freelance
Coordinateur Data H/F
HAYS France
Publiée le
2 mois
Caen, Normandie
Mission : Mission de 2 mois en Freelance puis préembauche en CDI Lieu : Caen Vos Missions Organisation du reporting groupe Structure et centraliser les indicateurs clés (KPI) pour le pilotage stratégique et opérationnel. Définit et maintenir une architecture de reporting homogène pour l'ensemble du groupe. Évolution des tableaux de bord Conçoit, maintient et fait évoluer les dashboards pour répondre aux besoins métiers. Garantit l'automatisation, la lisibilité et la fiabilité des rapports. Modélisation des données et flux d'alimentation Conçoit et maintient les modèles de données (Datawarehouse, Datalake, Datamarts). Crée et optimise les processus d'intégration (ETL/ELT) pour alimenter les systèmes analytiques. S'assure de la qualité, de l'exhaustivité et de la fraîcheur des données. Relation avec les métiers et la Direction Technique (OT) Assure le lien fonctionnel entre les équipes métiers et la DSI (Direction Technique). Analyse les besoins, formalise les expressions de besoins, coordonne les réponses techniques. Mise en place de procédures de contrôle qualité Définit et met en oeuvre des règles de contrôle de cohérence et de qualité des données. Met en place des alertes, indicateurs de suivi et tableaux de bord de contrôle. Participe à la conformité réglementaire (ex : RGPD, audit interne). Administration de la plateforme BI Gére les environnements de BI (paramétrage, déploiement, supervision). Met en oeuvre une gouvernance des accès et des rôles : Définit les périmètres d'accès aux données (cloisonnement par entité, fonction, niveau hiérarchique). Assure une gestion fine des droits utilisateurs, rôles et permissions. Formation et accompagnement des utilisateurs Forme les utilisateurs clés et les référents métier aux outils BI et aux bonnes pratiques d'usage des données. Élabore des supports pédagogiques (guides, vidéos, documentation). Développe l'acculturation des collaborateurs à la donnée et à l'IA. Veille technologique & innovation Suit les évolutions dans les domaines BI, data, cloud et IA. Identifie les opportunités d'optimisation ou de transformation des processus métier grâce à la donnée
Mission freelance
Data Analyst – Data Quality / Gouvernance / Dataflows
CHOURAK CONSULTING
Publiée le
Apache Kafka
Dremio
ETL (Extract-transform-load)
3 mois
400-500 €
Île-de-France, France
Nous recherchons un Data Analyst pour intervenir sur un projet de rationalisation et optimisation des flux de données au sein d’un environnement Data structuré. 🎯 Contexte de la mission La mission vise à améliorer la qualité, la cohérence et la gouvernance des données , en simplifiant les structures existantes et en réduisant les redondances. Vous interviendrez sur l’analyse des dataflows transactionnels , des objets de données et de leur utilisation afin d’optimiser les échanges entre systèmes IT et métiers. ⚙️ Missions principales Analyser les flux de données , leur structure et leur utilisation. Identifier les données redondantes, incohérentes ou inutilisées . Proposer des optimisations et simplifications des dataflows. Mettre en place des indicateurs de qualité des données . Contribuer à la définition du cadre de gouvernance Data (règles, rôles, usages). Documenter les modèles de données, règles métiers et cas d’usage. Accompagner les équipes métiers dans l’exploitation des données. Participer aux routines de gouvernance et qualité Data . 📦 Livrables attendus Analyses détaillées des jeux de données transactionnels Identification des anomalies et recommandations d’optimisation Documentation des modèles de données et dataflows Mise en place de contrôles de qualité des données Support aux équipes métiers pour la mise en œuvre des améliorations 🛠 Compétences techniques Python (obligatoire) SQL (excellent niveau) Outils Data : Dremio, Strategy, Kafka (apprécié) Concepts ETL / traitement de données Modélisation de données (entités, attributs, UML) Expérience en migration / validation de données (plus)
Mission freelance
DATA ANALYST SENIOR LOOKER
PROPULSE IT
Publiée le
24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Offre d'emploi
Ingénieur Système et Réseau N3 - F/H
Experis France
Publiée le
45k-55k €
Mer, Centre-Val de Loire
Contexte Nous recrutons un Ingénieur Système N3 - F/H pour intervenir en mission chez l'un de nos clients du secteur bancaire, sur un périmètre d'infrastructure à forts enjeux. Vous intégrez une DSI structurée et exigeante, avec une mission à dominante build vous permettant de contribuer activement à l'évolution et à la modernisation des infrastructures systèmes, tout en assurant un rôle de référent technique sur les incidents de niveau N3. Vos missions Administration et exploitation systèmes Administrer et maintenir en conditions opérationnelles les infrastructures systèmes Assurer le suivi et la résolution des incidents de niveau 3 Participer aux activités run et garantir la continuité de service Projets et évolutions Participer activement aux projets d'évolution et de modernisation des infrastructures Contribuer à la conception et à la mise en œuvre des nouvelles solutions systèmes Réaliser les changements et mises en production dans le respect des procédures Documentation et processus Rédiger et maintenir à jour les procédures et processus d'exploitation Participer aux réunions de suivi projet et aux instances techniques Contribuer à l'amélioration continue des pratiques et standards du service
Offre d'emploi
Data Ingenieur Python
CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python
3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5429 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois