L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 151 résultats.
Offre d'emploi
MOA Business Data Analyst F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Big Data
JIRA
Kanban
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Product Owner Infrastructure – OS & Container Platform
Etixway
Publiée le
Ansible
Confluence
Docker
12 mois
40k-65k €
500-730 €
Paris, France
Dans le cadre d’un programme de transformation et de modernisation des infrastructures IT d’un grand groupe, nous recherchons un Product Owner Infrastructure pour intervenir au sein d’une équipe transverse en charge des produits d’infrastructure, notamment les plateformes OS et Container Factory . L’équipe conçoit et fait évoluer des socles techniques mutualisés permettant aux différentes équipes applicatives de déployer leurs services dans des environnements standards, sécurisés et automatisés. Le Product Owner interviendra au cœur d’une organisation agile et collaborera étroitement avec les équipes Infrastructure, DevOps, Sécurité et Exploitation afin de piloter l’évolution des plateformes techniques. Missions En tant que Product Owner Infrastructure, vous aurez pour principales responsabilités : Définir et porter la vision produit des plateformes OS et Container Factory Construire et prioriser le backlog produit en lien avec les équipes techniques et les parties prenantes Piloter la roadmap produit et suivre l’avancement des évolutions techniques Collaborer étroitement avec les équipes DevOps, SRE, Infrastructure et Exploitation Participer à la définition et à l’évolution des standards technologiques des plateformes OS et containers Suivre le cycle de vie des systèmes d’exploitation et des environnements containers Contribuer à l’amélioration continue des plateformes : automatisation, industrialisation et fiabilité Accompagner les équipes internes dans l’utilisation des socles techniques et des outils associés Participer aux cérémonies Agile et assurer le bon déroulement des cycles de delivery
Mission freelance
Fiche de poste – Data Engineer (Snowflake / DBT / Airflow / AWS)
Tenth Revolution Group
Publiée le
Apache Airflow
DBT
Snowflake
6 mois
480-600 €
Île-de-France, France
Contexte : Je recherche plusieurs Data Engineers pour un client final, dans le cadre de missions urgentes. Ces postes sont à pourvoir rapidement et nécessitent une expertise technique pointue. Intitulé du poste : Data Engineer – Snowflake / DBT / Airflow / AWS Missions principales : Concevoir, développer et maintenir des pipelines de données fiables et performants. Participer à l’architecture et à l’optimisation des solutions Cloud. Collaborer avec les équipes Data et les équipes métiers pour assurer la qualité des données et des flux. Mettre en place les bonnes pratiques DataOps et CI/CD pour les pipelines de données. Assurer le monitoring, la sécurité et l’optimisation des coûts des infrastructures cloud.
Offre d'emploi
Data Engineer - CDI
VingtCinq
Publiée le
Azure
Databricks
DBT
Paris, France
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Offre d'emploi
Expert Windows 365 / Azure Virtual Desktop
NEWRAMA
Publiée le
Azure
OS Windows
Virtual Desktop Infrastructure (VDI)
12 mois
Paris, France
Pour le compte d'un client grand compte, vous intégrez une équipe dédiée à l'évolution des environnements de travail numériques. Votre rôle consiste à apporter une expertise de haut niveau sur les solutions de virtualisation Microsoft dans un contexte multi-pays. Architecture & Design : Optimiser et sécuriser les infrastructures Windows 365 et Azure Virtual Desktop. Modern Management : Piloter l'intégration et la gestion des postes via Microsoft Intune. Conseil & Aide au choix : Analyser les besoins métiers et préconiser la solution technique la plus adaptée (Cloud PC vs VDI classique). Expertise N3 : Résoudre les problématiques complexes liées à la performance, au réseau et à l'identité (Azure AD / Entra ID). Documentation : Produire les livrables techniques (DAT, procédures d'exploitation).
Mission freelance
Ingénieur Dynamics 365 Lille 530 e / jour
BI SOLUTIONS
Publiée le
Finance
Microsoft Dynamics
1 an
400-530 €
Lille, Hauts-de-France
Ingénieur Dynamics 365 Lille 530 e / jour Je recherche un consultant Dynamics 365 Finance pour accompagner un déploiement D365FO (formation utilisateurs + hypercare). Mission de déploiement pour accompagner nos équipes dur Dynamics 365. Bonne expression ecrite et orale , bonne capacité d'adaptation Mission : Formation des équipes comptables Support utilisateurs post go-live Scope : Finance Conditions : Localisation : Nord de Lille 3 jours/semaine sur site / Hybride en fonction des phases de formation 530 e par jour HT
Mission freelance
Data Scientist
ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python
1 an
Lille, Hauts-de-France
🎯 Objectif global Concevoir et développer de nouveaux algorithmes de Machine Learning afin d’enrichir et d’améliorer un système de recommandation à fort impact business. 📦 Livrables attendus Développement d’algorithmes ML opérationnels Prototypes (PoC / MVP) validés techniquement Documentation technique associée Mécanismes d’explicabilité des modèles Recommandations d’optimisation et d’industrialisation 🚧 Contraintes du projet Forte exigence de performance et de robustesse Nécessité d’explicabilité des algorithmes Intégration dans un écosystème data existant Collaboration transverse avec équipes produit et techniques 🧠 Missions principales1. Veille & Innovation Suivre les avancées en IA/ML (Deep Learning, Reinforcement Learning, LLM, IA générative) Identifier les technologies pertinentes pour les cas d’usage recommandation Proposer des approches innovantes adaptées aux enjeux métier 2. Conception & Expérimentation Concevoir des Proof of Concept (PoC) Développer des MVP robustes Tester et comparer différentes approches algorithmiques 3. Analyse de données & Modélisation Explorer et analyser des datasets complexes Identifier patterns et signaux exploitables Concevoir, entraîner et évaluer des modèles de recommandation 4. Explicabilité & Qualité Mettre en place des mécanismes d’interprétabilité Garantir la compréhension des résultats par les parties prenantes Documenter les choix techniques et les performances 5. Collaboration & Intégration Travailler en lien étroit avec Product Owners et équipes data Participer à l’intégration des modèles dans les plateformes existantes Contribuer à l’amélioration continue des solutions IA 🌍 Langues Français courant – Impératif Anglais professionnel – Secondaire
Offre d'emploi
Consultant BI - Data Analyst Qlik
ANDEMA
Publiée le
Qlik Sense
Qlikview
SQL
3 mois
Lille, Hauts-de-France
Contexte Pour l'un de nos clients majeurs du secteur Retail, nous recherchons un Consultant BI / Data Analyst spécialisé Qlik afin de renforcer l'équipe Data. Vous interviendrez en collaboration étroite avec les équipes métiers (offre, pricing, supply, finance, marketing...) dans un environnement à forte volumétrie. L'objectif : délivrer des dashboards fiables et performants, structurer les KPIs stratégiques et accompagner la transformation Data de l'enseigne. Une exposition aux flux d'intégration via Stambia est possible dans une logique de montée en compétences, mais le poste reste orienté BI / Analyse. Missions 1. Développement & Modélisation BI - Concevoir, développer et maintenir les applications sous QlikView et Qlik Sense. - Modéliser les données Retail (ventes, stocks, marges, supply, fidélité...). - Optimiser les modèles QVD et les performances applicatives. - Développer et maintenir les scripts d'alimentation nécessaires aux dashboards. 2. Analyse & Restitution - Recueillir et analyser les besoins métiers lors d'ateliers fonctionnels. - Structurer et formaliser les KPIs retail (sell-out, taux de transformation, panier moyen, disponibilité, ruptures...). - Concevoir des dashboards orientés pilotage opérationnel et stratégique. - Garantir la fiabilité, la cohérence et la qualité des données restituées. 3. Maintenance & Support - Assurer le MCO des applications BI existantes. - Gérer les incidents et optimiser les performances. - Maintenir la documentation technique et fonctionnelle. - Être force de proposition sur l'amélioration des usages BI. Environnement technique - QlikView, Qlik Sense - SQL (PostgreSQL, Oracle, SQL Server) - DataWarehouse - Stambia - JIRA, Git - Agile Scrum / Kanban
Mission freelance
Développeur Big Data
Codezys
Publiée le
Big Data
Cloudera
Data Lake
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
Mission freelance
DevOps Engineer – Plateforme Data & CI/CD (F/H)
CELAD
Publiée le
1 an
420-460 €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 à 3 jours de télétravail / semaine - Lyon 7ème - Expérience de 5 ans minimum Et si votre prochain défi consistait à industrialiser une plateforme data utilisée à grande échelle dans un grand groupe de l’énergie ? Nous recherchons un DevOps / Intégrateur pour intervenir au cœur d’un environnement technique exigeant, où l’objectif est simple : fiabiliser et automatiser les environnements utilisés par les équipes Data. Concrètement, vous contribuerez à rendre les plateformes plus robustes, plus automatisées et plus faciles à exploiter pour les équipes qui développent et analysent les données. Ce que vous allez faire au quotidien : Votre rôle sera de simplifier et sécuriser la mise en production des applications et des traitements data. - Vous développerez et améliorerez les pipelines de déploiement automatisé pour permettre aux équipes de livrer plus rapidement et plus sereinement leurs applications. - Vous maintiendrez les infrastructures et middlewares Linux afin de garantir la disponibilité des environnements analytiques. - Vous industrialiserez les environnements utilisés par les équipes Data pour les rendre reproductibles, fiables et facilement déployables. - Vous collaborerez régulièrement avec les équipes développement, architecture, sécurité et exploitation pour aligner les solutions avec les standards du SI. - Vous contribuerez aux réflexions autour des évolutions Cloud et On-Premise, notamment pour améliorer la résilience et la performance des plateformes. - Vous documenterez les solutions mises en place afin de faciliter leur exploitation et leur évolution. - Vous participerez aux rituels d’équipe et aux échanges techniques autour de l’amélioration continue des environnements. Votre objectif : garantir des plateformes data fiables, automatisées et résilientes.
Offre d'emploi
DevOps Engineer – Plateforme Data & CI/CD (F/H)
CELAD
Publiée le
45k-50k €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 à 3 jours de télétravail / semaine - Lyon 7ème - Expérience de 5 ans minimum Et si votre prochain défi consistait à industrialiser une plateforme data utilisée à grande échelle dans un grand groupe de l’énergie ? Nous recherchons un DevOps / Intégrateur pour intervenir au cœur d’un environnement technique exigeant, où l’objectif est simple : fiabiliser et automatiser les environnements utilisés par les équipes Data. Concrètement, vous contribuerez à rendre les plateformes plus robustes, plus automatisées et plus faciles à exploiter pour les équipes qui développent et analysent les données. Ce que vous allez faire au quotidien : Votre rôle sera de simplifier et sécuriser la mise en production des applications et des traitements data. - Vous développerez et améliorerez les pipelines de déploiement automatisé pour permettre aux équipes de livrer plus rapidement et plus sereinement leurs applications. - Vous maintiendrez les infrastructures et middlewares Linux afin de garantir la disponibilité des environnements analytiques. - Vous industrialiserez les environnements utilisés par les équipes Data pour les rendre reproductibles, fiables et facilement déployables. - Vous collaborerez régulièrement avec les équipes développement, architecture, sécurité et exploitation pour aligner les solutions avec les standards du SI. - Vous contribuerez aux réflexions autour des évolutions Cloud et On-Premise, notamment pour améliorer la résilience et la performance des plateformes. - Vous documenterez les solutions mises en place afin de faciliter leur exploitation et leur évolution. - Vous participerez aux rituels d’équipe et aux échanges techniques autour de l’amélioration continue des environnements. Votre objectif : garantir des plateformes data fiables, automatisées et résilientes.
Mission freelance
Business Analyst – Global Markets - Paris
Net technologie
Publiée le
Business Analyst
Market data
1 an
Paris, France
Dans le cadre de la structuration Global Markets , nous recherchons un profil pour rejoindre l’équipe QIS (Quantitative Investment Strategies) , en Salle des Marchés; L’équipe QIS développe et promeut la gamme d’indices propriétaires. Le poste s’inscrit au sein de l’équipe QIS Transversal , intégrée à une Task Force stratégique visant à optimiser la chaîne de publication des indices (réduction de la maintenance quotidienne et du risque opérationnel). 🛠 Vos missions : Analyser l’existant et identifier les axes d’amélioration Proposer et structurer un plan d’action Coordonner les équipes impliquées (Structuring, Research, Dev, Trading, Legal – international) Concevoir un outil de suivi du processus opérationnel Assurer le reporting régulier auprès du management
Mission freelance
Data Manager expert modélisation de données (H/F)
Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake
12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
Offre d'emploi
Ingénieur SRE, SysOps, intégrateur CLOUD ou DevOps à Rouen/ TJM: 450 €
Numeryx Technologies
Publiée le
Ansible
Gitlab
Grafana
3 ans
40k-53k €
400-550 €
Rouen, Normandie
Mission : Construction des environnements (Terraform) sur un cluster OpenStack Déploiement automatisé des outils (Ansible) Mise en place de pipelines CI/CD (Jenkins, GitLab, Sonar, Nexus) Supervision et suivi des systèmes d'exploitation (Prometheus, Grafana, Loki) Échanges réguliers avec les développeurs des applications Compétences attendues : Exigées : Linux (système et réseau), Cloud public ou privé, Ansible, Terraform, Grafana, Jenkins Souhaitables : Prometheus, GitLab Appréciées : Java, Maven, Vault, Docker, Kubernetes, Rancher, Nexus, SonarQube, Selenium, Cucumber, JMeter, ZAP, Openstack, Loki, Promtail Une bonne expression orale et écrite ainsi que des qualités pédagogiques sont requises
Mission freelance
Analyste DATA - Bordeaux
Sapiens Group
Publiée le
Big Data
Data visualisation
PowerBI
1 an
400-450 €
Bordeaux, Nouvelle-Aquitaine
Une organisation de gestion de mutuelle/retraite, dans le cadre de son activité analyse de la donnée, recherche un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée sur le site de Gradignan (33) près de Bordeaux. Objet de la prestation Le présent marché spécifique a pour objet le renforcement de l'équipe. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ. Fort d'une expérience DATA, le prestataire devra également montrer une appétence particulière dans le domaine fonctionnel. Prestation attendue Mission de deux ans, télétravail 2 jours par semaine Prestation d'analyse DATA et DATASCIENCE
Offre d'emploi
Data Engineer (F-H)
INFOGENE
Publiée le
40k-45k €
Lille, Hauts-de-France
En tant que Data Engineer , vous intervenez sur la conception, le développement et l’exploitation de pipelines de données cloud-native, principalement orientés ELT. Votre rôle est central dans la structuration, la transformation et la fiabilisation des données , avec une utilisation avancée de dbt. Vous intervenez sur l’ensemble du cycle de vie de la donnée, de la transformation à la mise à disposition analytique, avec une attention particulière portée à la qualité,la performance , la fiabilité et la traçabilité des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5151 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois