Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 445 résultats.
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Freelance

Mission freelance
Lead Data Engineer Azure Databricks

Publiée le
Apache NiFi
Databricks
PySpark

3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Freelance
CDI

Offre d'emploi
Chef de projet Data H/F

Publiée le
Azure Synapse
Microsoft Power BI
Pilotage

1 an
45k-58k €
400-450 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Suite à une restructuration interne chez notre client dans le secteur de l'immobilier, nous recherchons un(e) Chef(fe) de projet Data à Bordeaux Missions Recenser et analyser les besoins métiers. Lire et comprendre les cahiers d’analyse. Participer aux COPROJ / COPIL. Suivre la RDD, les recettes, le run et les tickets JIRA. Rédiger les process et modes opératoires. Suivi des plannings et risques projets Environnement technique Microsoft Azure Azure Synapse Analytics Microsoft SQL Server Microsoft Power BI Démarrage : ASAP – Recherche quelqu’un pour démarrage de mission en cette fin d’année
Freelance

Mission freelance
Data Engineer (H/F)

Publiée le
Dataiku

1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
📌 Data Engineer (H/F) – Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail 📢 Pas de portage ni de sous-traitance Nous recherchons un Data Engineer autonome , pour accompagner la transformation data de l’entreprise et soutenir les équipes métier dans leurs analyses, pilotages et initiatives de création de valeur. 🎯 Missions principales Collecter, analyser et exploiter les données pertinentes pour optimiser le pilotage des activités. Accompagner les équipes métier dans le développement, le déploiement et l’opération des solutions data. Concevoir des modèles de données (relationnel, dimensionnel, Data Vault). Développer et optimiser des pipelines ETL/ELT robustes et maintenables. Garantir la qualité et la gouvernance des données (lineage, métadonnées, quality checks…). Participer à l’évolution de l’ architecture data (Data Lakehouse, Data Mesh). Produire des visualisations et analyses accessibles (Power BI). Maintenir le catalogue de datasets à jour. Réaliser les tests selon la stratégie définie. Fournir des kits de formation et accompagner les utilisateurs dans la prise en main des solutions. 📈 Résultats attendus Données pertinentes identifiées, capturées et valorisées. Optimisation du temps, des outils et des ressources liés à la gestion data. Analyses et visualisations lisibles et exploitables par les métiers. Recommandations permettant la création de valeur opérationnelle. Amélioration continue des services et processus grâce aux insights data. Respect des normes éthiques et de gouvernance du groupe. Promotion et documentation des produits data pour faciliter leur maintien dans le temps. 🧠 Compétences requises Data Engineering Modélisation : relationnelle, dimensionnelle, Data Vault Pipelines ETL / ELT Gouvernance : data lineage, qualité, catalogage Architectures data modernes : Data Lakehouse, Data Mesh Langages SQL avancé Python / PySpark avancé Technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps 📍 Conditions Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail Pas de portage, ni de sous-traitance
Freelance
CDI

Offre d'emploi
Ingénieur SysOps (H/F)

Publiée le
Ansible
AWS Cloud
Azure

12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tu es comme un poisson dans l’eau dans l’environnement Linux et tu es convaincu que l’automatisation est LA solution pour une meilleure productivité ? C’est le projet idéal pour toi ! Rejoins notre équipe en tant qu’ Ingénieur SysOps . 🚀 Ton challenge si tu l’acceptes : Assurer la disponibilité et la fiabilité de l’infrastructure Gérer les incidents et demandes de niveau 2 et 3 Automatiser les processus pour assurer la répétabilité et la qualité Développer et garantir la pérennité des processus d’intégration et de déploiement Participer activement aux projets d’amélioration continue Accompagner la mise en place de nouvelles solutions
Freelance
CDI

Offre d'emploi
Product Owner

Publiée le
BI
Data Warehouse

12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Freelance

Mission freelance
Chef de projet senior Data - Temps partiel

Publiée le
Data analysis
Data Warehouse
RGPD

18 mois
100-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte Experience : 10 ans et plus Métiers Fonctions : Data Management, Chef de projet Senior Spécialités technologiques : Transformation digitale Mission L’organisation souhaite structurer et mettre en œuvre une gouvernance de la donnée pour soutenir sa transformation digitale, améliorer son excellence opérationnelle et piloter ses activités à partir de données fiables, accessibles et sécurisées. Nous recherchons un chef de projet senior spécialisé en data pour poursuivre la construction de la gouvernance de la donnée et garantir son intégration dans les outils, les méthodes et l’architecture fonctionnelle et technique en cours d’urbanisation. MISSION : Le consultant devra notamment : - Structurer et déployer une gouvernance de la donnée adaptée au contexte. - Diffuser les concepts fondamentaux de la data dans les méthodes et projets existants - Veiller à la bonne prise en compte des exigences data dans les systèmes techniques et métiers, ainsi qu’à la mise à disposition autonome des données via des outils de data visualisation - Challenger la démarche existante, les actions et les ressources au regard de la feuille de route et des ambitions - Sécuriser la méthode et les étapes pour accompagner la montée en maturité data Le consultant collaborera étroitement avec : - Un chef de projet data déjà en poste, notamment sur les problématiques liées à la dématérialisation - La direction numérique, la DSI et les directions métiers Expertise souhaitée - Expérience confirmée en gouvernance de la donnée et projets data - Maîtrise des enjeux réglementaires (ex. : RGPD) - Connaissance des architectures data (data lake, data warehouse, MDM) - Compétences en pilotage de projets complexes et conduite du changement - Capacité à vulgariser les concepts data et à mobiliser les parties prenantes
Freelance

Mission freelance
Chef de Projet Data Migration – Projet d’intégration S/4HANA

Publiée le
SAP

6 mois
Marne, France
Télétravail partiel
Contexte: Notre client, un acteur industriel majeur, engage un projet d’intégration ambitieux visant à remplacer tout ou partie de ses systèmes sources par l’ERP S/4HANA. Dans ce cadre, nous renforçons l’équipe Migration avec un profil expérimenté pour piloter les activités et la production des livrables sur un domaine fonctionnel ciblé. Environnement technique: S/4HANA, outils de migration (ex: SAP Data Services, LTMC), suites de tests (SAP TAO, SolMan). Type de contrat: Freelance (via ZENITH). Poste ASAP
Freelance
CDI
CDD

Offre d'emploi
Testeur Fonctionnel Confirmé – Application Web & Mobile -Marseille + Télétravail(H/F)

Publiée le
Git
Méthode Agile

1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
🎯 Contexte de la mission Dans le cadre du développement de l’application ENEJ (web & mobile), dédiée au secteur éducatif du primaire au supérieur, nous recherchons un Testeur Fonctionnel Confirmé . Le produit évolue en mode Agile , avec des releases toutes les 4 semaines, dans un environnement hautement sécurisé (ISO27001 / SecNumCloud) . 🛠️ Missions principales Réaliser les tests fonctionnels : intégration, non-régression, E2E Tester les nouvelles fonctionnalités à chaque livraison Contribuer à des tests plus techniques : sécurité, accessibilité Rédiger les cahiers de tests et les dossiers de résultats Créer et suivre les tickets Git en cas d’anomalies Participer aux rituels Agile (daily, sprint review, sprint planning) S’assurer de la conformité fonctionnelle et technique du produit Respecter les standards de sécurité de l’environnement certifié 📄 Livrables attendus Cahier de tests Résultats de tests Tickets d’anomalie documentés (Git) Reporting d’avancement ⚙️ Compétences techniques requises Test fonctionnel – Confirmé (Impératif) Test technique – Confirmé (Souhaitable) Bonnes pratiques Agile Connaissance des environnements sécurisés (un plus) Français professionnel (impératif)
Freelance
CDI

Offre d'emploi
Data Engineer (21)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Freelance
CDI

Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN

Publiée le
Apache Hive
Apache Spark
Big Data

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Freelance

Mission freelance
Ingénieur Systèmes Microsoft & Virtualisation

Publiée le
Active Directory
Azure DevOps
microsoft

12 mois
100-500 €
Île-de-France, France
Télétravail partiel
Notre client recherche un ingénieur Systèmes Microsoft & Virtualisation pour renforcer son équipe. L'ingénieur sera capable de gérer les plateformes SharePoint, Windows Server, SQL Server et Active Directory, tout en assurant le support, l’analyse d’incidents et la maintenance. Vous intervenez sur la virtualisation via vSphere et Hyper-V, le réseau, la sécurité, la documentation technique et les intégrations applicatives. Vous collaborez avec des équipes internationales et contribuez à l’évolution des infrastructures.
Freelance

Mission freelance
POT8806 - Un Architecte Data sur Massy Palaiseau

Publiée le
Architecture

6 mois
Massy, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Architecte Data sur Massy-Palaiseau. Besoin : Au sein d’une équipe pluridisciplinaire client, composée d’un chef de projet à la DPT, de fonctions DSI (architect cloud, digital factory …), d’architectes d’entreprises DSI et métiers, de data managers, l’objectif de la prestation sera : Proposer une architecture de data platform (potentiellement plusieurs) respectant la sensibilité des données Si plusieurs data platforms, celles-ci devront être interopérables et équivalentes en termes de fonctionnalités. Identifier la logique d’organisation des données et préciser les conditions (données entrantes) pour une utilisation finale optimale et au niveau attendu par les opérationnels. Idéalement, étudier la possibilité d’avoir un moyen (interface ? ) unique pour les requêtes de data sets. Proposer une logique projet « built » et le « run » associé, c’est dire l’ensemble du processus Proposer une gouvernance adaptée (qui, comment, accès, outputs, temporalité etc. ) Proposer une stratégie de documentation et une trame. Le client souhaiterait avoir un accompagnement externe d’un data architect confirmé. La proposition devra prendre en compte les éléments suivants : Connaissant le cloud AWS et l’architecture de platform on Premise Connaissance des pratiques d’urbanisation des applications (Fiche d’identité/Fact sheet, Cartographie des flux) Très bonnes compétences SI générales. Capacité à animer des comités de pilotage Capacité à travailler avec autonomie, à solliciter avec discernement les parties prenantes et à animer des échanges. Un savoir-être orienté vers la proactivité, la communication et la capacité à questionner les usages lorsque nécessaire. Anglais (obligatoire – échanges avec l’Inde) Prestation Attendue : Il est attendu du prestataire une assistance : Une architecture détaillée de data platform répondant aux besoins opérationnels et aux contraintes de sensibilité des données Un plan de mise en œuvre de cette architecture (feuille de route détaillant les étapes, la mobilisation des acteurs à solliciter, les relais associés, l’accompagnement au changement, le processus) Une proposition de gouvernance pour l’alimentation et l’utilisation des données. Comptes rendus de réunions et décisions prises lors des instances de gouvernance (Comités de suivi, Ateliers d’arbitrage) Suivi des sollicitations / réponses obtenues KPI d’avancement et de performance L’animation de la campagne sera animée en autonomie avec les sachants et donneront lieu à un suivi d’avancement. Le prestataire veillera à respecter le cadre de mis en œuvre définit par l’encadrement du chantier. Localisation : Massy Palaiseau + TT
Freelance

Mission freelance
DATA DESIGNER H/F/NB

Publiée le
Agile Scrum
Gouvernance
Modélisation

120 jours
400-500 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Un acteur majeur de l'écosystème français recherche son futur Data Designer pour rejoindre une équipe d'experts passionnés par l'innovation et la transformation digitale. Rejoignez le Shared Service Data Office et devenez l'architecte de demain ! Vous interviendrez comme System Architect au cœur des trains SAFe, collaborant avec des architectes technique et fonctionnel pour façonner l'avenir data de l'organisation. 🎨 Vos Créations : ✨ Architecte de l'impossible - Participez à la construction d'une architecture Datacentric révolutionnaire 🧠 Sculpteur de données - Enrichissez et modélisez le patrimoine informationnel de l'entreprise 🔮 Créateur d'ontologies - Définissez les langages de demain pour structurer la connaissance ⚡ Facilitateur agile - Accompagnez les équipes dans la création de solutions innovantes
Freelance

Mission freelance
[FBO] Développeur Blueway MDM - Rennes - 1148

Publiée le

6 mois
1-400 €
Rennes, Bretagne
Télétravail partiel
Contexte de la mission Recherche d'un développeur Blueway (MDM) spécification & conception réalisation des déveveloppements & tests recette support recette résolution d'incidents Environnement technique : Blueway MDM ; ESB ; API ; ArtemisMQ ; CI/CD ; Linux Prestation à Rennes & 2 jours de remote
Freelance

Mission freelance
Chef de projet référentiel Power BI- Nantes

Publiée le
Active Directory
JIRA
Microsoft Power BI

1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
L’objectif de cette consultation est de maintenir un référentiel sous Power BI permettant de suivre l’utilisation et l’état des équipements déployés dans différents sites. Ce dispositif doit offrir une vision globale du parc matériel et des incidents associés. Il s’agira également de contribuer à la gestion des incidents, au suivi des déploiements et à la remontée des faits marquants. Environnement et conditions techniques Power BI Windows 10, Windows 11 et outils d’administration • Active Directory • Office 365, Teams • Jira
4445 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous