L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 984 résultats.
Offre d'emploi
Data Engineer Snowflake Sénior (H/F)
Panda Services
Publiée le
Apache Airflow
Azure
CI/CD
6 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Data Engineer Snowflake Sénior, pour l'un de ses clients basé à Paris. Localisation : Paris Contexte de la mission Dans le cadre du renforcement de notre équipe data, nous recherchons un Data Engineer expérimenté pour intervenir sur la conception et l’optimisation de pipelines de données au sein d’une architecture moderne orientée cloud. 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables Modéliser et structurer les données dans Snowflake Assurer l’intégration et la transformation des données via Dataiku Optimiser les performances et les coûts des traitements de données Mettre en place des bonnes pratiques de qualité, gouvernance et sécurité des données Collaborer avec les équipes Data Science, BI et métiers Participer à l’industrialisation des workflows data 🛠️ Compétences techniques requises Excellente maîtrise de Snowflake (data warehouse cloud) Expérience confirmée sur Dataiku (DSS) Bonne maîtrise de SQL et des concepts de modélisation de données Expérience avec des outils ETL / ELT Connaissance des environnements cloud (AWS, Azure ou GCP) Maîtrise de Python appréciée Expérience en CI/CD et data pipelines (Airflow, dbt est un plus) 👤 Profil recherché Minimum 7 ans d’expérience en Data Engineering Forte capacité d’analyse et de résolution de problèmes Autonomie et proactivité Bon relationnel et capacité à travailler en équipe Expérience en environnement agile
Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration
Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance
6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Mission freelance
Data Engineer confirmé (H/F) - 92
Mindquest
Publiée le
Apache Spark
Azure DevOps
Databricks
3 mois
400-550 €
Hauts-de-Seine, France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. - Analyse des traitements existants dans le cadre de projets de migration - Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake - Développement de notebooks Databricks pour des traitements avancés de données - Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) - Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) - Réalisation de revues de code dans une logique de qualité et de bonnes pratiques - Conception et exécution de tests unitaires - Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Offre d'emploi
Data Analyst Qlik Sens - Rennes
Argain Consulting Innovation
Publiée le
Qlik
Qlik Sense
Qlikview
2 ans
40k-45k €
450-470 €
Rennes, Bretagne
Dans le cadre du renforcement de l’équipe décisionnelle, nous recherchons une prestation spécialisée dans la restitution et l’analyse de données sous Qlik afin d’accompagner les métiers dans la construction, l’évolution et l’optimisation de leurs tableaux de bord. Principales missions Accompagnement des métiers dans l’expression des besoins et participation aux phases de recette fonctionnelle. Analyse des sources, modélisation décisionnelle et conception des applications Qlik. Développement, évolution et maintenance de tableaux de bord QlikView et/ou Qlik Sense . Mise en forme, datavisualisation et valorisation des données pour faciliter l’aide à la décision. Contribution à l’optimisation des performances : modèles de données, scripts de chargement, organisation des applications. Documentation fonctionnelle et technique, participation aux travaux d’industrialisation. Support, diagnostic et résolution d’incidents sur les applications de restitution.
Offre d'emploi
Consultant en gouvernance data - SI assurance H/F
VIVERIS
Publiée le
45k-55k €
France
Contexte de la mission : Viveris vous propose un poste de Consultant SI Data, avec une expérience confirmée dans le pilotage de projets transverses sur DataGalaxy ainsi que sur les aspects réglementaires. Dans le cadre d'un projet de gouvernance des données, notre client, acteur du secteur assurantiel, déploie progressivement la solution auprès des différentes équipes métiers et IT. En tant qu'expert DataGalaxy, vous accompagnez les équipes à chaque étape du déploiement et garantissez l'appropriation de la solution ainsi que la mise en oeuvre des premiers cas d'usage. Responsabilités : Piloter le déploiement de DataGalaxy dans le respect de la gouvernance et du planning ; Accompagner et former les équipes métier et IT à un usage avancé de la solution ;Concevoir et implémenter des cas d'usage structurants au sein du Data Catalog ; Paramétrer et optimiser l'intégration de DataGalaxy dans l'écosystème data ; Apporter une expertise en gouvernance des données et diffuser les bonnes pratiques.
Offre d'emploi
Mission – Développeur Python
OMICRONE
Publiée le
Azure
Big Data
Python
3 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Développeur Python Confirmé (H/F) Dans le cadre d’un échange avec l’un de nos clients, nous recherchons un développeur Python confirmé pour intervenir sur des projets à forte valeur ajoutée. 🔹 Missions Développement et évolution d’applications data / backend Python Participation à des projets de bout en bout (design → production) Collaboration étroite avec les équipes business, infra et sécurité Contribution à des environnements cloud Azure 🔹 Profil recherché Développeur Python confirmé (5+ ans) Expérience en environnement Azure / data / APIs Capacité à intervenir en autonomie sur des sujets end-to-end Bonne compréhension des enjeux métier Anglais professionnel requis 🔹 Conditions 📍 Localisation : paris 💼 Mission long terme (pas de mission courte) 🚫 Non ouvert à la sous-traitance
Mission freelance
Développeur/ Chef de Projet Data (h/f)
emagine Consulting SARL
Publiée le
Microsoft Power BI
3 ans
400-550 €
Île-de-France, France
À partir d’une liste prédéfinie d’environ 1 200 rapports Business Objects existants, l’objectif est de challenger les métiers propriétaires afin de : 1. Décommissionner et arrêter un maximum de rapports BO non utilisés ou obsolètes. 2. Orienter les métiers vers des rapports Power BI existants lorsque ceux-ci répondent déjà au besoin couvert par les rapports BO. 3. En dernier recours, lorsque les deux points précédents ne sont pas applicables, migrer le nombre limité de rapports BO restants vers de nouveaux rapports Power BI. L’objectif principal est donc de réduire significativement le parc de rapports BO, de favoriser l’usage des rapports Power BI existants, et uniquement lorsque le besoin métier est avéré, de développer de nouveaux rapports Power BI en remplacement des rapports BO concernés. EXPERIENCE PROFESSIONNELLE REQUISE • Expérience de 7 ans minimum en tant que data analyste • Experience de 5 ans minimum en tant que chef de projet data COMPETENCES REQUISES • Connaissance Business Object • Connaissance Power BI • Connaissance SSIS • Connaissance de la méthode agile Compétence – Nice to have ▪ Connaissance du monde de l’assurance/Assistance
Offre d'emploi
Data Architecte - LLMOPS
VISIAN
Publiée le
Kubernetes
Large Language Model (LLM)
Machine Learning
1 an
40k-45k €
400-700 €
Paris, France
Contexte: Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les metiers du Groupe. Un GRID de GPU on premise utilise pourle training et l'inference. Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrasturcutres, des plateformes (kubernetes/openshift) et des produits. Environnement technique: - Docker / Kubernetes / OpenShift / Cloud / Bare Metal - Programmation en python - Shell scipting - GPU Computing Outils de CI/CD DevSecOps/GitOps : hashicorp Vault, gitlab, gitlab-CI, kaniko, keycloak, ansible, Artifactory, ArgoCD, Argo Workflow
Offre d'emploi
Product Owner Data H/F
JEMS
Publiée le
48k-60k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : k170vt48pi
Offre d'emploi
Ingénieur de production bancaire
ASTRELYA
Publiée le
Agile Scrum
DevOps
Méthode Agile
Levallois-Perret, Île-de-France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission En tant qu'ingénieur de production vous interviendrez dans un éco système banque et vous serez dédiée au suivi de run et maintien en condition opérationnelle du périmètre des applications Fonctions Centrales, utilisées par les équipes métiers de PF France (Marketing Direct, Risques, Conformité, lutte contre la fraude, Finance, Statistiques opérationnelles, KPI tous métiers confondus). Du point de vue opérationnel, la prestation sera menée en participant aux activités de l’équipe DSI en charge de la gestion opérationnelle, des évolutions fonctionnelles et techniques des applications. Il sera en charge des phases de testing dans un contexte agile (SCRUM) et il participera à l’accélération et l'optimisation de la résolution des dysfonctionnements. La prestation est basée à Levallois et est susceptible d’avoir des astreintes. Les taches de la mission sont : - Suivi des traitements de production - Analyse en autonomie des incidents, mener / coordonner les actions de corrections - Relance de jobs Autosys en cas d’incidents - Réalisation de la maintenance corrective des alimentations Shell et Oracle en majorité, - Exécution des scénarios de test en environnement agile au sein de l'équipe de Delivery - Proposition et mise en œuvre des scénarios automatisés - Participation au support fonctionnel de l’application - Coordination des actions connexes avec les autres équipes techniques - Alimentation le Product Backlog - Réalisation des Delivery / packaging - Réalisation des mises en production - Contribution active à la mise en place de solutions d’améliorations ou de montées de version - Apport de support à l’équipe de développement sur les environnements d’intégration - Participation à la cohésion d’équipe DevOps
Mission freelance
EXPERT MIDDLEWARE - ETL & DATA STREAMING
Signe +
Publiée le
Java
12 mois
400-550 €
La Défense, Île-de-France
EXPERT MIDDLEWARE - ETL & DATA STREAMING Centre de competence Architecture et Integration - Group Digital and IT (Saint-Gobain) Contexte Mission au sein de l'equipe Architecture et Integration dans un environnement international et multiculturel. Pilotage des lignes de services integration ETL : Talend (Cloud / hybride) et Data Streaming (Kafka Confluent Cloud). Missions principales Support, suivi et maintenance de l'existant (CRM / Annuaire / PIM) Accompagnement a la creation de nouveaux projets : analyse du besoin, cadrage technique, conception des flux Pilotage de l'equipe en Inde (developpements, tests, deploiements) Gestion du plan de charge et des plannings Administration et suivi operationnel de la plateforme Talend et des composants On Prem Administration et suivi operationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation des deux plateformes Definition et partage des bonnes pratiques (configuration / developpements) Competences requises Talend Data Integration Studio V8 - Expert API et formats Json, Xml, Csv - Confirme Management d'equipe - Confirme Java 8+ - Confirme Linux / Unix - Confirme Kafka - Confirme SQL et Base de donnees - Confirme Source management (Gitlab) - Confirme Connaissances CRM Salesforce - Elementaire
Offre d'emploi
Data Analyst (F/H)
CELAD
Publiée le
40k-49k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
Offre d'emploi
SRE Azure- Ingénieur Fiabilité Cloud
AVALIANCE
Publiée le
Azure
Azure Kubernetes Service (AKS)
Cloud
40k-70k €
Maurepas, Île-de-France
- Rattachement hiérarchique : Responsable Cloud & Datacenter – Équipe Cloud & Datacenter Missions principales : • Fiabilité & SRE : définition des SLI/SLO/error budgets, revues de fiabilité, gestion des incidents majeurs, post-mortems blameless, plans de remédiation. • Observabilité : contribution à la plateforme monitoring (Prometheus, Grafana, Loki, Mimir, Alloy), intégration de nouveaux périmètres Azure, dashboards et alerting. • FinOps & gouvernance Cloud : suivi de la consommation MACC, analyses Azure Resource Graph (KQL), right-sizing, chasse aux ressources orphelines, recommandations d’optimisation. • Infrastructure as Code : industrialisation via Terraform, modules réutilisables, pipelines GitOPS CI/CD, revues de code et bonnes pratiques IaC. • Plateforme Kubernetes (AKS) : exploitation, patching, scaling, sécurité (RBAC, Network Policies, Azure AD integration), support aux équipes applicatives. • Data Platform : accompagnement de la migration ADF v2 vers Databricks, fiabilisation des pipelines et suivi des coûts de compute. • Automatisation & tooling : scripts Python / PowerShell / Bash, runbooks, self-healing, réduction du toil. • Sécurité & conformité : application des standards groupe, gestion des secrets (Key Vault), RBAC, Defender for Cloud, PRA/PCA. • Documentation & partage : runbooks, architecture decision records (ADR), transfert de compétences vers l’équipe et les partenaires (Accenture).
Offre d'emploi
Data Analyst SI Industriel (H/F)
█ █ █ █ █ █ █
Publiée le
SQL
45k-50k €
France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre premium
Offre d'emploi
Ingénieur Automaticien Contrôle-Commande Senior (H/F)
Signe +
Publiée le
Automatisation
1 an
40k-50k €
300-510 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement d’un nouveau système de contrôle-commande, vous interviendrez en tant qu’Ingénieur Automaticien Senior et serez en charge de : Concevoir et développer une librairie de blocs standards sous Control Expert, en respectant les standards C3 Schneider Participer à la définition des concepts systèmes sur la partie contrôle-commande Rédiger la documentation technique (spécifications d’architecture, analyses fonctionnelles, analyses organiques) Prendre en compte les exigences normatives, notamment la norme CEI 61131 Concevoir et réaliser les essais (définition des campagnes de tests, tests unitaires, d’intégration et fonctionnels) Intervenir sur l’ensemble du cycle en V, de la conception à la mise en service Évoluer dans un environnement pouvant nécessiter des échanges en anglais (documentation, réunions, interlocuteurs internationaux) 2 jours de télétravail par semaine, avec des déplacements ponctuels Issu(e) d’une formation Bac+3 à Bac+5 en automatisme ou équivalent, vous justifiez d’une expérience significative d’au moins 10 ans en systèmes de contrôle-commande. Compétences techniques : Expertise impérative sur Schneider M580 / Control Expert Solide maîtrise des automatismes et systèmes de contrôle-commande Ce poste est ouvert au freelance, au portage salarial, au pré-recrutement et au CDI.
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2984 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois