Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 426 résultats.
Offre d'emploi
Architecte Data Senior
Crafteam
Publiée le
Apache Kafka
Apache Spark
Google Cloud Platform (GCP)
3 ans
60k-63k €
550-600 €
Île-de-France, France
Dans le cadre du développement d’une plateforme Data & IA de nouvelle génération hébergée en environnement hybride (Cloud GCP / On-Premise), nous recherchons un(e) Architecte Data Senior capable de concevoir des architectures robustes, scalables et orientées performance. Vous interviendrez au sein d’équipes pluridisciplinaires sur des sujets stratégiques autour de la data platform, de l’analytics et de l’intelligence artificielle. Vos missions Concevoir et formaliser des architectures data adaptées aux besoins métiers et techniques Collaborer avec les équipes Data Engineering, Data Science, Analytics, Product et projets Accompagner les équipes dans la mise en œuvre des architectures définies Garantir la qualité, la sécurité et l’intégrité des données Optimiser les processus d’ingestion et de traitement des données Participer à la définition des politiques de gouvernance data Évaluer et recommander les technologies les plus adaptées aux enjeux de la plateforme Identifier et résoudre les problématiques d’architecture liées au stockage, à l’accès et à l’exploitation des données Contribuer à des projets de migration de plateformes Data On-Premise vers le Cloud (idéalement GCP) Environnement technique Google Cloud Platform (GCP) Spark Python SQL Kafka MongoDB Hadoop Bases de données SQL / NoSQL DataLake / DataWarehouse / Lakehouse Concepts Datamesh & architectures hybrides
Mission freelance
Tech Lead Data & BI (Snowflake / dbt / Power BI)
EMGS GROUP
Publiée le
Data modelling
DBT
Microsoft Power BI
6 mois
500-600 €
Paris, France
ans le cadre du renforcement d’une équipe data, nous recherchons un Tech Lead Data & BI pour piloter la delivery technique de solutions data et de visualisation. Missions : Pilotage technique des projets data et BI Conception et mise en œuvre de modèles de données et datamarts Développement et structuration de projets dbt (modèles, tests, documentation) Mise en place de pipelines industrialisés (orchestration, CI/CD, contrôles qualité) Définition des standards et bonnes pratiques Power BI (templates, performance, gouvernance) Construction et optimisation des modèles sémantiques et des reportings Accompagnement et montée en compétences des équipes Contribution au cadrage technique des nouvelles initiatives Livrables attendus : Modèles de données Snowflake robustes et documentés Pipelines data industrialisés et sécurisés Modèles sémantiques et rapports Power BI performants Standards et guides de bonnes pratiques (connexion, gouvernance, templates)
Offre d'emploi
Ingénieur Algo / Data Scientist
Signe +
Publiée le
Data analysis
10 mois
40k-45k €
400-460 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Dans le cadre d’une prestation d’ingénierie à forte dominante scientifique, nous recherchons un profil Ingénieur Algo / Data Scientist pour intervenir sur des problématiques de traitement du signal, d’analyse de données capteurs et de modélisation en environnement industriel. La mission consistera à exploiter, analyser et interpréter des données issues de systèmes physiques ou de capteurs, afin de développer des algorithmes robustes permettant de répondre à des enjeux techniques complexes. Le consultant pourra être amené à travailler sur des sujets de modélisation physique ou numérique, d’optimisation, de détection de phénomènes, de classification ou encore de prédiction à partir de données expérimentales. L’environnement nécessite une bonne capacité à comprendre des phénomènes scientifiques, à manipuler des données techniques et à proposer des approches algorithmiques adaptées aux contraintes industrielles.
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Offre d'emploi
Data engineer (H/F)
Amiltone
Publiée le
35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Offre d'emploi
Architecte Fonctionnel SI & Data – Senior
RIDCHA DATA
Publiée le
TOGAF
1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans un environnement multi-BUs, multi-outils et multi-processus , une grande organisation renforce sa Direction des Systèmes d’Information Interne afin de structurer et faire évoluer son Système d’Information Corporate. Le poste s’inscrit dans une démarche de transformation SI & Data , avec un fort enjeu d’alignement stratégique, de gouvernance et de valorisation de la donnée. 🚀 Missions principales 🏗 Architecture fonctionnelle & urbanisation SI Définir et faire évoluer l’architecture fonctionnelle cible du SI Maintenir la cartographie fonctionnelle Définir les principes d’urbanisation Garantir la cohérence des flux et processus métiers Contribuer aux choix structurants et aux études d’opportunité 📊 Gouvernance SI & Data Structurer et animer la gouvernance SI et Data Piloter les instances de gouvernance Garantir la qualité et la cohérence des données Mettre en place et suivre les référentiels 🗺 Pilotage de la roadmap SI Consolider la feuille de route SI Identifier et piloter les dépendances entre projets Contribuer aux arbitrages stratégiques Accompagner les métiers et la DSI sur les cadrages complexes 🤝 Accompagnement transverse Assurer la cohérence globale des solutions SI Intervenir sur les sujets à forte complexité ou à enjeux stratégiques Animer les équipes projets (chefs de projet, AMOA, référents data…) Favoriser l’usage et la valorisation de la donnée 🧩 Périmètre fonctionnel SI Finance SI RH & Activité CRM & Connaissance Client Data & IA
Offre d'emploi
Directeur des Systèmes d'Information
VISIAN
Publiée le
Budget Management
Data governance
Project Portfolio Management (PPM)
1 an
Paris, France
Missions Assurer le rôle de DSI à part entière sur la durée de la mission Clarifier l’organisation, les rôles et responsabilités (RUN / BUILD / support) Mettre en place ou renforcer les instances de gouvernance IT (CODIR DSI, comités projets) Fiabiliser le pilotage (rituels, indicateurs, priorisation) Garantir le maintien en condition opérationnelle des systèmes critiques Sécuriser la production IT (disponibilité, performance, incidents majeurs) Traitement des irritants prioritaires métiers Reprendre le pilotage des projets structurants / sensibles Reprioriser le portefeuille projets en lien avec la Direction Générale Identifier rapidement les zones de risque, arbitrages et décisions à prendre Sécuriser les trajectoires (planning, coûts, qualité) Remettre à niveau les pratiques essentielles (documentation, MEP, qualité, sécurité) Apporter des méthodes pragmatiques adaptées à la maturité réelle de l’organisation Professionnaliser sans sur-organiser Être un interlocuteur crédible et opérationnel pour le COMEX Rendre compte de façon claire, factuelle et synthétique Formuler des recommandations actionnables, sans posture politique Produire un état des lieux clair (forces, faiblesses, risques) Capitaliser sur les actions menées et décisions prises Préparer le passage de relais au futur DSI (dossier de reprise)
Offre d'emploi
Architecte Solution Data
CHARLI GROUP
Publiée le
Exadata
IBM DataStage
Java
Paris, France
Avec la livraison récente de la toute nouvelle Data Factory, qui consiste en un datawharehouse transversal à l’entreprise ainsi qu’une multitude de services et clients associés, en production ou en devenir Compétences clefs : • Maitrise des technologies data plateformes avec un atout majeur sur les solutions IBM (ETL Datastage PX) • Modélisation des données, data linéage, Data qualité… • Vision : capacité à prendre de la hauteur et référent/garant sur les choix d’architecture • Capacité d’influencer les choix d’architecture et traduire les besoins métier en choix d’architecture fonctionnelle et technique • Faciliter et accompagner les équipes de dev dans le cycle de développement.
Offre d'emploi
Data Ingenieur Python
CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python
3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Mission freelance
DATA ENGINEER - Nantes
Signe +
Publiée le
Apache Airflow
Apache Hive
Apache Spark
155 jours
370 €
Nantes, Pays de la Loire
Description du poste Prestation de Data Engineering sur site client à Nantes. La mission consiste à : - Réaliser les développements en langage Scala. - Assurer les travaux jusqu'en environnement de production. - Assurer le support N3 de la production. - Superviser les traitements. - Être force de proposition. - Documenter les réalisations. Notre client attend un candidat disposant de plusieurs années d'expérience en Scala et Spark. Conditions de travail : - Prestation sur site. - 4 jours de télétravail par semaine.
Offre d'emploi
Ingénieur Data SAS / Teradata – Environnement Banque (H/F)
Deodis
Publiée le
Data quality
Gouvernance
1 an
40k-45k €
400-480 €
Île-de-France, France
Nous recherchons un(e) Data Engineer spécialisé(e) SAS / Teradata pour intervenir au sein d’un environnement bancaire exigeant, dans le cadre de la gestion et de l’évolution d’une plateforme Data stratégique utilisée pour des besoins réglementaires. Vous serez en charge de l’administration de la plateforme SAS, de la mise en place et de l’automatisation des traitements de chargement de données via des scripts SAS et Shell, ainsi que du suivi de la qualité et de la conformité des données en base Teradata. Vous interviendrez également sur le support aux utilisateurs métiers (notamment en environnement international), l’analyse des incidents, la validation des flux de données et l’optimisation des traitements batch. Ce rôle requiert une forte expertise technique sur SAS, une bonne maîtrise des environnements Data legacy, ainsi qu’une capacité à évoluer dans un contexte structuré, orienté Data Quality, gouvernance et performance.
Offre d'emploi
Expert data H/F
HAYS France
Publiée le
Monaco
Vos missions sont les suivantes : Accompagner la modernisation de l'environnement data aujourd'hui basé sur MyReport et de nombreux fichiers Excel. Mettre en place une architecture plus fiable et automatisée pour centraliser et structurer la donnée. Participer au choix de la future plateforme data et aux premières étapes de son implémentation. Construire les premiers flux de données (ETL/ELT) et organiser les modèles de données. Produire des tableaux de bord fiables pour le comité de direction et les équipes métiers. Améliorer la qualité, la cohérence et la disponibilité de la donnée. Préparer l'arrivée de cas d'usage IA (prévisions, automatisations).
Offre d'emploi
Data manager H/F
HAYS France
Publiée le
32k-36k €
Metz, Grand Est
En tant que Data Manager, vous interviendrez sur un périmètre transverse mêlant data management et business analysis : Comprendre et recueillir les besoins des équipes métiers Assurer le rôle de Data Manager / Business Analyst Garantir la cohérence, la qualité et la fiabilité des données Mettre en place et faire vivre la gouvernance des données Veiller au respect des réglementations en vigueur Produire et analyser des reportings Comprendre les logiques algorithmiques derrière les requêtes Gérer les séquences de traitements et participer à la programmation
Offre premium
Offre d'emploi
QA Data confirmé (Databricks / Azure)
VADEMI
Publiée le
Azure
Databricks
3 ans
Châtillon, Île-de-France
Testeur confirmé avec compétences Data Analyste Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data . Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité.
Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580
Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark
1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500
Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes
8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1426 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois