Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 425 résultats.
Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500
Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes
8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
Offre d'emploi
QA DATA
KOUKA
Publiée le
Cypress
Data quality
Gherkin
6 mois
40k-53k €
400-450 €
Île-de-France, France
La définition et la mise en œuvre de stratégies de tests sur les flux de données La validation des données (contrôles SQL, cohérence, complétude, intégrité) La rédaction et l’exécution de cas de tests fonctionnels et techniques L’automatisation des tests (API, UI, data pipelines) La collaboration avec les équipes Data, Dev et Produit Le suivi des anomalies et leur résolution Langages / Data : SQL Gestion des tests : JIRA / XRAY Méthodologie : BDD – Gherkin Tests automatisés : Cypress Tests API : Postman / Newman CI/CD : GitLab Versioning : Git
Offre d'emploi
DATA ENGINEER CONFIRME / SENIOR (H.F)
NSI France
Publiée le
Azure
Cloud
Data Engineering
6 mois
Île-de-France, France
Contexte Dans le cadre de projets de transformation et de modernisation des systèmes d'information chez de grands acteurs de la distribution et de la grande consommation, nous recherchons un Data Engineer confirmé / sénior pour intervenir sur une migration de plateforme Data vers le Cloud. Vous intégrerez une squad Agile dédiée, au sein d'une organisation Data Factory, dont la mission est de concevoir et déployer des produits Analytics innovants à destination des fonctions support, des équipes logistiques et des points de vente. Vos missions En tant que Data Engineer, vous interviendrez sur tout ou partie des missions suivantes : Analyse des traitements existants dans le cadre de projets de migration on-premise vers le Cloud Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein d'un Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) Rédaction de la documentation technique (dossiers d'analyse, release notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD Environnement technique Azure / Databricks / Spark Python / SQL CI/CD, Azure DevOps Outils Agile (JIRA)
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : a10nad07cd
Offre d'emploi
Data Engineer
Signe +
Publiée le
24 mois
40k-45k €
286-450 €
Niort, Nouvelle-Aquitaine
Mission : Un profilData ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d'une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d'amélioration continue -Participation active aux rituels agiles 3j/semaine sur site Compétences techniques requises : Azure Databricks PySpark Delta Lake Python
Offre d'emploi
Consultant Senior Data Catalog Collibra (H/F)
ASTRELYA
Publiée le
Collibra
Data governance
IA
92800, Puteaux, Île-de-France
Votre mission : En tant que Consultant Data Catalog spécialisé Collibra, vous accompagnerez nos clients dans la structuration, l’opérationnalisation et la gouvernance de leur Data Catalog. Vous interviendrez sur des projets stratégiques visant à renforcer la maîtrise, la qualité et la valorisation des données, en vous appuyant sur les capacités avancées de Collibra Data Intelligence Platform. Votre rôle sera clé pour aider les organisations à déployer un Data Catalog robuste, gouverné, adopté et aligné avec les enjeux Data & IA Concrètement, vous allez : 1. Structurer & Opérationnaliser le Data Catalog · Définir la stratégie Data Catalog et accompagner les clients dans leur transformation Data Governance. · Paramétrer Collibra : communautés, domaines, rôles, workflows, policies, règles de qualité, operating model. · Concevoir et adapter le métamodèle Collibra : Data Domains, Data Sets, Data Elements, Data Owners, Stewards, modèles IA, indicateurs de qualité… · Mettre en place les connecteurs d’ingestion (Collibra Connect, Collibra Data Quality, ingestion automatisée). · Modéliser les objets métiers et assurer leur documentation dans Collibra. · Déployer les workflows de gouvernance (validation, certification, demandes d’accès, gestion des changements). 2. Assurer la valorisation & l’adoption du Data Catalog · Définir et déployer les cadres de Data & AI Governance. · Structurer les Data Domains, Data Objects, Data Contracts, glossaires métier et usages IA. · Accompagner les Data Owners, Stewards et équipes IT dans la prise en main de Collibra. · Concevoir des parcours d’acculturation : formations, vidéos, kits, communautés Data, webinaires. · Promouvoir les bonnes pratiques d’usage et faire évoluer la culture Data. Votre futur environnement de travail : · Data Catalog : Collibra (Data Governance, Data Quality, Lineage, Workflow, Operating Model). · Outils de documentation & IA Responsable : Model Cards, risk matrices, AI Act traceability. · Outils collaboratifs : Notion, Miro.
Offre d'emploi
Architecte d'Intégration
VISIAN
Publiée le
API
Architecture
Data management
1 an
Paris, France
Contexte La mission consiste à concevoir et implémenter l’architecture d’intégration globale pour assurer la connectivité de manière cohérente entre les différentes solutions de l’écosystème (ERP, CRM, Data platform...). Cela passe par la définition et mise en œuvre de standards d’échange et le pilotage de la stratégie de flux, tout en garantissant l’agilité de l’écosystème lors des déploiements internationaux et des migrations pays. Missions Définition de la stratégie d'intégration s'appuyant sur un principe de couplages faibles et contrats d'interface forts Choix et mise en place des briques d'intégration Orchestration des flux métier Observabilité des flux Standardisation des APIs si nécessaire Mise en place de pratiques et outils AI-Driven Integration (automatiser des mappings de données, détection d'erreurs de flux...) Supervision et support lors des intégrations et migrations pays
Offre d'emploi
DATA OPS DATAIKU DSS
R&S TELECOM
Publiée le
AWS Cloud
Azure
CI/CD
6 mois
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention Projets Data Science & IA développés sous Dataiku DSS Chaînes MLOps (entraînement, déploiement, supervision des modèles) Connexion de Dataiku aux sources de données de l’entreprise Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation Compétences Dataiku DSS – niveau avancé (MLOps & DataOps) Expérience confirmée en industrialisation de modèles ML Python, SQL CI/CD, Git Très bonne compréhension des architectures Data Environnements Cloud (AWS / GCP / Azure) Sensibilité forte aux enjeux sécurité, RUN et exploitation
Mission freelance
Data Analyst – Data Quality / Gouvernance / Dataflows
CHOURAK CONSULTING
Publiée le
Apache Kafka
Dremio
ETL (Extract-transform-load)
3 mois
400-500 €
Île-de-France, France
Nous recherchons un Data Analyst pour intervenir sur un projet de rationalisation et optimisation des flux de données au sein d’un environnement Data structuré. 🎯 Contexte de la mission La mission vise à améliorer la qualité, la cohérence et la gouvernance des données , en simplifiant les structures existantes et en réduisant les redondances. Vous interviendrez sur l’analyse des dataflows transactionnels , des objets de données et de leur utilisation afin d’optimiser les échanges entre systèmes IT et métiers. ⚙️ Missions principales Analyser les flux de données , leur structure et leur utilisation. Identifier les données redondantes, incohérentes ou inutilisées . Proposer des optimisations et simplifications des dataflows. Mettre en place des indicateurs de qualité des données . Contribuer à la définition du cadre de gouvernance Data (règles, rôles, usages). Documenter les modèles de données, règles métiers et cas d’usage. Accompagner les équipes métiers dans l’exploitation des données. Participer aux routines de gouvernance et qualité Data . 📦 Livrables attendus Analyses détaillées des jeux de données transactionnels Identification des anomalies et recommandations d’optimisation Documentation des modèles de données et dataflows Mise en place de contrôles de qualité des données Support aux équipes métiers pour la mise en œuvre des améliorations 🛠 Compétences techniques Python (obligatoire) SQL (excellent niveau) Outils Data : Dremio, Strategy, Kafka (apprécié) Concepts ETL / traitement de données Modélisation de données (entités, attributs, UML) Expérience en migration / validation de données (plus)
Offre d'emploi
Responsable Data (H/F)
Link Consulting
Publiée le
45k-55k €
Toulouse, Occitanie
Notre client, groupe international multi‑entités, recherche son futur Responsable Data (H/F) pour son site de Toulouse, dans le cadre du renforcement de sa stratégie Data et de la structuration de sa gouvernance. Vos missions : Intégré à une organisation en construction, vous devrez : Décliner la stratégie Data du groupe et en assurer la mise en œuvre Structurer la gouvernance Data à l’échelle internationale Piloter les projets Data en lien avec les métiers et prestataires Coordonner les équipes internes et externes Identifier et prioriser les use cases à forte valeur Accompagner la montée en maturité data des différentes entités Animer les rituels Agile (sprints, backlog, priorisation) Conduire le changement dans un contexte en évolution Les compétences techniques Bonne maîtrise des environnements data modernes (Snowflake, Data Fabric, Talend, Power BI) Expérience en gouvernance Data et pilotage stratégique Connaissance des méthodologies Agile (Scrum, sprint 2 semaines) Capacité à évoluer dans des SI complexes et internationaux Un bon niveau d'anglais est requis pour l'animation des instances.
Offre d'emploi
Data Ingénieur Python ELK
CHARLI GROUP
Publiée le
Elasticsearch
ELK
Python
3 ans
Paris, France
ngénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Offre d'emploi
Data Scientist
R&S TELECOM
Publiée le
Agent IA
Google Cloud Platform (GCP)
Python
6 mois
Corenc, Auvergne-Rhône-Alpes
Contexte de la mission : Pour notre client dans le domaine bancaire, nous recherchons un profil de Data Scientist Tâches à réaliser : Piloter et réaliser des projets de data sciences / intelligence artificielle directement avec les métiers, sous supervision du tech lead data scientist (data préparation, modélisation, data visualisation, normes gestion de projet) Coacher des étudiants dans la réalisation de POC Réaliser des actions d’acculturation et d’animation Accompagner les métiers à la réalisation de prompt, déploiement de LLM, agents/assistants Participer à la mise en place de l’environnement technique (sous GCP notamment) et des méthodes de gestion de projet Réaliser la Maintenance en Condition Opérationnelle des cas d’usages DS/IA industrialisés Collaborer et participer activement à la vie du service et du département et à l’amélioration continue de son fonctionnement Les actions réalisées s’inscrivent dans un cadre règlementaire et normatif, tant d’un point de vue sécurité des systèmes d’information que conformité, RGPD, IA Act et éthique La mission implique également une compréhension et une traduction fonctionnelle des activités et processus bancaires, une connaissance générale des produits et services bancaires serait donc un plus Compétences recherchées : Obligatoires : · Python · SQL · Capacité à animer des ateliers, à fédérer autour des sujets Data/IA, à vulgariser pour des publics néophytes Optionnelles : · Expérience sur GCP · Expérience en chef de projet Expérience nécessaire : Minimum 5 années d’expérience en data science (ML, DL, LLM) (profil ITS : Hors grille) Langues : Français Date de démarrage : ASAP Localisation : Locaux du client situés à Corenc (Grenoble) Possibilité d’interventions hors site Client : OUI (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : OUI (Environ une fois par mois) Autre matériel requis : NON
Offre d'emploi
Conduite de projet MOE N2 Data
OCTOGONE
Publiée le
Data Warehouse
SQL
1 an
30k-60k €
Issy-les-Moulineaux, Île-de-France
Au sein de l'équipe en charge du Data Warehouse (DWH) de gestion, le poste s'inscrit dans un environnement transverse au cœur des enjeux data de la banque. Le DWH constitue un élément stratégique du système d'information, notamment pour la production réglementaire COREP liée au risque de crédit, mais aussi pour de nombreux usages métiers : reporting, analyses, modélisations, pilotage de l'activité et connaissance client. Il couvre de nombreuses activités et alimente différents départements tels que le Contrôle de gestion, l'ALM, le Risque, le Marketing, le CRM et Pilotage commercial. Dans ce contexte, la mission MOE consiste à assurer les travaux de maîtrise d'œuvre nécessaires au maintien, à l'évolution et à la fiabilité des pipelines de données de la plateforme analytique. Le collaborateur prend en charge des activités variées mêlant conception technique, développement de flux ETL, maintenance applicative et collaboration étroite avec la MOA. L'environnement applicatif repose sur une stack technique mature et documentée, que le collaborateur devra s'approprier rapidement afin d'assurer une montée en compétence opérationnelle dans les meilleurs délais. La capitalisation des connaissances existantes, la compréhension des flux en place et la maîtrise des spécificités fonctionnelles du DWH constituent un enjeu central du démarrage de la mission.
Mission freelance
Data Engineer
SKILL EXPERT
Publiée le
DBT
Microsoft Power BI
Python
6 mois
450 €
Bordeaux, Nouvelle-Aquitaine
A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : • Effectuer des alimentations de données, • Travailler en binome avec un Data Analyst sur un sujet IA/Data. • Travailler autour d'agent IA pour du requetage SQL en langage naturelle • Mise à dispo d'outillage d'aide aux développement, monitoring… , • Faire une veille technologique autour des architectures data,
Offre d'emploi
Data Steward
DATAMED RESEARCH
Publiée le
Collibra
Microsoft Power BI
MySQL
24 mois
45k-55k €
400-550 €
Paris, France
Contexte Intervention au sein d’une équipe Data/Gouvernance, avec des enjeux forts autour de la qualité de la donnée , de la conformité et de la fiabilisation des référentiels métiers . Missions principales Assurer la qualité, la cohérence et la fiabilité des données Mettre en place et suivre les règles de gestion et de contrôle de la donnée Définir et maintenir le data catalog et les référentiels métiers Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts…) Identifier et analyser les anomalies de données Mettre en place des indicateurs de qualité (KPI Data Quality) Participer aux initiatives de gouvernance des données (politiques, standards, process) Accompagner les métiers dans la bonne utilisation des données
Offre d'emploi
Ingénieur Intégration HPC – Simulation Numérique
RIDCHA DATA
Publiée le
Calcul hautes performances (HPC)
Google Cloud Platform (GCP)
Linux
1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’un programme stratégique autour de la simulation numérique , une grande organisation industrielle renforce ses équipes afin d’optimiser le développement de produits via des solutions de calcul avancé (HPC). La simulation numérique joue un rôle clé dans la réduction des coûts de prototypage et l’amélioration des performances, en s’appuyant sur un écosystème de logiciels métiers spécialisés (acoustique, thermique, etc.). 🚀 Missions principales Mise en place et maintien d’environnements Linux (Shell / Bash) Développement de scripts pour orchestrateurs HPC (Slurm, LSF) Installation et configuration de postes Windows 10/11 (Batch, PowerShell, XML) Monitoring des ressources (serveurs, licences) Diagnostic des incidents multi-environnements : Windows Linux Orchestrateurs Logiciels de simulation Utilisation de MPI pour le calcul distribué (multi-nœuds) Accompagnement des utilisateurs (support, compréhension des besoins) Participation à des projets en mode Agile Contribution à des environnements Cloud (notamment GCP) 📦 Livrables attendus Documentation technique (conception) Code source développé Tests unitaires et d’intégration
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1425 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois