L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 234 résultats.
Offre d'emploi
Expert Data spécialisé sur Semarchy
OBJECTWARE
Publiée le
Semarchy
6 mois
Indre-et-Loire, France
Nous recherchons un Expert Data spécialisé sur Semarchy pour intervenir sur un projet autour de la gestion et de la gouvernance des données . Vos missions : Mise en place et évolution de solutions Semarchy (MDM) Modélisation et gestion des référentiels de données Participation à la gouvernance et à la qualité des données Collaboration avec les équipes techniques et métiers Profil recherché : Expérience sur Semarchy xDM / MDM Bonne compréhension des enjeux data / gouvernance des données Autonomie et capacité à intervenir sur des environnements data 📍 Poste basé en Indre-et-Loire (37) 📅 Démarrage : dès que possible
Mission freelance
DATA ENGINEER GCP
ESENCA
Publiée le
Apache Airflow
BigQuery
DBT
1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Offre d'emploi
ML/Data Engineer H/F
█ █ █ █ █ █ █
Publiée le
Apache Airflow
CI/CD
Github
Ville de Paris - Archives de Paris - Centre annexe, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Lead Administrateur Système Linux & Infrastructure (H/F)
Linkup Partner
Publiée le
Administration systèmes et réseaux
Plan de reprise d'activité (PRA)
1 an
60k-71k €
500-560 €
Paris, France
Dans le cadre du renforcement d'une équipe infrastructure, nous recherchons un(e) Administrateur(trice) Systèmes expérimenté(e) pour accompagner l’évolution et la sécurisation des environnements techniques. Vos missions Optimiser la supervision de l’infrastructure globale en mettant en œuvre un système de monitoring robuste et pérenne afin de garantir la disponibilité et la performance des applications. Définir et implémenter des procédures de sauvegarde fiables, et rédiger un Plan de Reprise d’Activité (PRA). Réaliser régulièrement des tests de restauration en conditions proches de la production afin d’en garantir l’efficacité. Mettre en place des mécanismes de redondance pour assurer la haute disponibilité des applications critiques. Documenter l’infrastructure (serveurs, gestion des adresses IP, architecture) afin d’en assurer la maintenabilité et la traçabilité. Assurer la maintenance et l’évolution continue de scripts et d’applications internes. Fournir un support technique réactif et efficace aux utilisateurs. Administrer l’environnement Microsoft 365 (gestion des utilisateurs, groupes, droits et supervision des services). Contribuer à l’amélioration continue des infrastructures hybrides (cloud et on-premise/bare metal). Assurer un rôle de lead technique : animation, encadrement et montée en compétences de l’équipe. Accompagner les équipes projets dans leurs démarches d’intégration continue (CI) et de mise en production. Compétences techniques : Containerisation (Docker) et Virtualisation (Proxmox/QEMU) Scripting en BASH / Python / Ruby Langage procédural (Python) Maitrise l’outil Git Maitrise de Linux (Debian) avec les commandes et outils de base (htop, curl, nmcli, lsusb, dmesg) Linux (Kernel, InitramFS) Comprend la couche OSI et les principes fondamentaux du réseau Anglais
Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI
OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake
3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Offre d'emploi
Administrateur Systèmes Confirmé (H/F)
ADSearch
Publiée le
40k-50k €
Villeurbanne, Auvergne-Rhône-Alpes
En bref : Administrateur Systèmes Confirmé H/F – CDI – Villeurbanne – 45k€ – Administration Systèmes, Support, Infogérance, Linux (Red Hat) et Oracle La division Hébergeur Cloud de notre bureau recherche pour son client, une ETI familiale engagée dans l'amélioration de la qualité de vie des citoyens et influençant favorablement son écosystème, un Administrateur Systèmes Confirmé (H/F) sur Villeurbanne. VOS MISSIONS Vous intégrerez l'équipe répartie sur Villeurbanne, Lille et Meylan. Vous serez en charge des missions suivantes : - Participer au support clients niveau 2 et 3 (hébergement et On Premise sur les applicatifs éditeurs) - Effectuer des installations et migrations pour les clients du secteur public entièrement à distance - Gérer des bases de données Oracle et des systèmes des clients (800 serveurs virtuels hébergés) - Rédiger les documentations et mettre en application les processus ISO27001 dans une démarche d'amélioration continue
Mission freelance
Product Owner Data/BI (Lille)
SQLI
Publiée le
CoreData
6 mois
400-600 €
Lille, Hauts-de-France
Bonjour, Pour le compte de l'un de mes clients Lillois, je suis à la recherche d'un Product Owner Data orienté BI. Mandatory : Une expérience de projets Power BI, afin de piloter la transformation des outils de reporting. Ses responsabilités : • Cadrer et formaliser les besoins métiers, organiser les demandes et la solution BI. • Collaborer avec les sponsors internes de la transformation pour favoriser l’engagement autour du projet. • Animer des ateliers de Product Discovery pour comprendre les usages, les irritants, les objectifs et les indicateurs clés. • Construire et maintenir le backlog BI, prioriser les sujets et arbitrer les évolutions en lien avec les entités métiers. • Collaborer étroitement avec le Tech Lead, les développeurs BI et les équipes Data pour garantir la cohérence et la qualité des livrables. • Valider les maquettes, prototypes (Figma) et rapports développés, en assurant leur pertinence métier, leur lisibilité UX et leur conformité aux standards. • Contribuer à la mise en œuvre d’un Design System dataviz, assurant cohérence et appropriation des tableaux de bord. • Favoriser la montée en compétence des équipes métiers sur la lecture, l’usage et l’évolution des rapports. • Garantir une documentation fonctionnelle claire et à jour pour faciliter la maintenance et la réversibilité. • Suivre les indicateurs de Delivery du projet à présenter lors des instances de pilotage.
Offre d'emploi
PRODUCT OWNER Data / IA
TOHTEM IT
Publiée le
9 mois
45k-55k €
Paris, France
Vos missions Au cœur des enjeux data et métiers, vous serez amené à : Analyser et comprendre les besoins métiers afin de proposer des solutions data adaptées Concevoir des modélisations fonctionnelles de données et contribuer à la définition des architectures Recueillir les besoins auprès des utilisateurs via des ateliers fonctionnels et formaliser les règles de gestion Rédiger les spécifications fonctionnelles et techniques pour les développements dans l’environnement Palantir Définir les flux de données, interfaces utilisateurs et applications agentiques Présenter les solutions développées aux utilisateurs et accompagner les phases de recette Participer à la gestion de la backlog projet et aux rituels de l’équipe BI Contribuer au suivi des applications et au support utilisateur
Mission freelance
Change Manager Data & Cloud – Secteur Assurance (H/F)
CAPEST conseils
Publiée le
Business Object
Conduite du changement
Dataiku
3 mois
Paris, France
Dans le cadre d’un programme de transformation data d’envergure chez un acteur majeur du secteur de l’assurance, nous recherchons un Change Manager Data & Cloud afin d’accompagner les équipes métiers dans l’adoption des nouveaux usages liés à la donnée. Le programme vise à moderniser l’écosystème data, notamment via la migration d’applications vers des environnements cloud et SaaS , et à favoriser une culture data-driven au sein des différentes directions métiers. Vous interviendrez à l’interface entre les équipes data, IT et métiers , avec un rôle clé de vulgarisation et d’accompagnement au changement. Vos missionsAccompagnement à la transformation data Définir et déployer la stratégie de conduite du changement autour des nouveaux outils et usages data. Identifier les impacts organisationnels et métiers liés aux migrations vers des solutions cloud et SaaS . Mettre en place des plans d’adoption pour favoriser l’appropriation des solutions data. Acculturation et vulgarisation de la data Traduire les sujets techniques en messages accessibles pour les métiers . Promouvoir la culture data et les usages analytiques dans les différentes directions. Concevoir et animer des ateliers, démonstrations et formations utilisateurs . Produire des supports de communication et de pédagogie (guides, newsletters, webinars). Adoption des outils analytiques Accompagner les métiers dans l’utilisation des solutions data et BI : Business Objects Tableau Dataiku Objectif : démocratiser l’accès à la donnée et faciliter l’autonomie des métiers dans l’analyse. Coordination avec les équipes techniques Assurer le lien entre les équipes data, IT et les utilisateurs métiers . Contribuer à l’amélioration de l’expérience utilisateur autour des outils data. Participer à la structuration des bonnes pratiques et de la gouvernance data . Profil recherchéExpérience 5 ans ou plus d’expérience en conduite du changement, transformation digitale ou data . Expérience dans des environnements BI, analytics ou data platforms . Une connaissance du secteur assurance ou financier est appréciée. Compétences Capacité à vulgariser des sujets techniques complexes . Bonne compréhension des environnements cloud, SaaS et data analytics . Expérience avec des outils de data visualisation ou BI . Excellentes capacités de communication, animation d’ateliers et gestion des parties prenantes . Qualités attendues Sens du service et orientation métier. Leadership et capacité à embarquer les équipes. Autonomie et esprit d’initiative. Forte appétence pour les sujets data et transformation digitale . Environnement de la mission Secteur : Assurance Environnement : Transformation data et migration cloud Outils : Business Objects, Tableau, Dataiku Mode de travail : interaction forte avec les équipes data, IT et métiers Quelques déplacements à prévoir occasionnellement en province.
Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities
WHIZE
Publiée le
Big Data
Finance
3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop
Deodis
Publiée le
Red Hat
1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Offre d'emploi
Data Scientist
VISIAN
Publiée le
AWS Cloud
Deep Learning
FastAPI
1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe du client travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets CND. Soft skills Votre esprit est rigoureux, créatif et méticuleux. Vous avez un bon esprit critique, ainsi que de bonnes capacités d'analyse des résultats et de prise de recul. Vous avez une bonne capacité à travailler en équipe, et de bonnes compétences en communication. Vous êtes pragmatique, et orienté résultat.
Offre d'emploi
Architecte Data / CMDB Snow (ServiceNow)
OBJECTWARE
Publiée le
Master Data Management (MDM)
ServiceNow
3 ans
45k-95k €
540-700 €
Île-de-France, France
Prestations demandées Les Missions principales sont : -Conception et optimisation du data model des référentiels IT techniques (CIs et métadonnées) -Définition des règles d’identification et de réconciliation (IRE) au sein de ServiceNow -Spécification des sources de vérité et cartographier les flux d’alimentation des référentiels -Déploiement des stratégies de data quality : déduplication, fiabilité, couverture, obsolescence -Application des principes de Master Data Management au contexte de la CMDB -Mise en place une gouvernance claire, documentée et partageable -Collaboration étroite avec les équipes ITSM, Discovery, MDM, sécurité et infrastructure -Accompagnement des équipes en charge des découvertes et des inventaires techniques -Production de la documentation d’architecture, standards, bonnes pratiques et processus -Développement des produits de données permettant de répondre aux besoins de reporting et d'audit
Offre d'emploi
Ingénieur Réseau et Sécurité (F/H)
Savane Consulting
Publiée le
60k-70k €
Roanne, Auvergne-Rhône-Alpes
CONTEXTE : Dans le cadre du lancement de plusieurs projets IT en 2026, la DSI d’un grand groupe industriel recherche un Expert Réseau afin d’assurer des actions de maintien en conditions opérationnelles des infrastructures réseau et sécurité, en cohérence avec la stratégie SI groupe. MISSIONS : Réaliser des audits de conformité et de bon fonctionnement (switches, points d’accès Wi-Fi, firewalls, proxy) Piloter les plans de remédiation associés Superviser les indicateurs de performance des infrastructures Accompagner les chefs de projets IT Interagir avec les responsables de domaines et le prestataire d’infogérance ACTIVITÉS : Réalisation d’audits de conformité et de bon fonctionnement des composants réseau et sécurité (switches, AP Wi-Fi, firewalls, proxy) Pilotage des plans de remédiation Supervision des indicateurs de performance des infrastructures Accompagnement des chefs de projets LIVRABLES : Rapports d’audit Rapports de remédiation Reporting mensuel de capacity planning des infrastructures réseau et sécurité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6234 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois