Trouvez votre prochaine offre d’emploi ou de mission freelance Dash

Votre recherche renvoie 1 230 résultats.
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
CDI

Offre d'emploi
Data Engineer GCP H/F

JEMS
Publiée le

45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Freelance
CDI

Offre d'emploi
Chef de projet Intune (Bordeaux)

CAT-AMANIA
Publiée le
Active Directory
Autopilot
Cycle en V

1 an
40k-60k €
100-450 €
Bordeaux, Nouvelle-Aquitaine
En tant que Chef de projet, et en coordination avec l’équipe, votre activité principale sera de : Récolter les besoins métier, formalise la note de cadrage Etablir les spécifications fonctionnelles générales et rédige précisément le cahier des charges Planifier les étapes du projet et de l’utilisation des ressources DSI et métier (Gantt) Assurer la livraison du projet mais aussi des attendus documentaires (DEX, recettes, PV de livraison, PV de formation, REX) Organiser, coordonner, animer l’équipe de maîtrise d’ouvrage du projet Superviser le déroulement du projet Coordonner, synthétiser, et assurer la qualité des validations prononcées Assurer un reporting régulier aux métiers et à son responsable de projet Effectuer la recette des réalisations et apprécie leur conformité au cahier des charges de l’ouvrage Garantir le respect des délais et des coûts Proposer au commanditaire, en cours de projet, d’éventuelles modifications d’objectifs (qualité, coût, délai) liées à des contraintes de réalisation ou des modifications d’environnement Définir et gèrer le planning d’avancement du projet Mettre en place tous les indicateurs nécessaires au suivi et à la gestion du projet, notamment sur l’évaluation de la performance, des coûts et des délais
CDI

Offre d'emploi
ALTERNANCE - Chef de projet junior Gouvernance Data (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Microsoft Excel

Pantin, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud

1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration

12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Freelance

Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)

Lùkla
Publiée le
Snowflake

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Freelance

Mission freelance
POT9115 - Un Data Engineer Airflow Confirmé sur Tours

Almatek
Publiée le
Python

6 mois
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage
Freelance

Mission freelance
Cloud Automation & Data Engineering

ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance

1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Freelance
CDI

Offre d'emploi
Expert Stockage NAS MCC NetApp

VISIAN
Publiée le
NAS
Stockage

1 an
Île-de-France, France
Contexte Le domaine assure le delivery stockage de la production mutualisée d'une grande institution bancaire. Missions Spécialiste du stockage dans le monde des systèmes « Open » Garant des solutions techniques et de l’optimisation du dispositif de production Pilotage de l’activité d’exploitation et d’administration des infrastructures de stockage Garant des phases de setup dans le cadre des projets Optimisation et reporting de la capacité et de la performance des infrastructures Développement des relations avec les fournisseurs et les constructeurs
Freelance

Mission freelance
251774/Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN

WorldWide People
Publiée le
Snowflake

3 mois
Bretagne, France
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles Objectifs et livrables Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. Compétences demandées Compétences Niveau de compétence QlikCloud Avancé QLIKVIEW Confirmé Snowflake Avancé Architecture BI Confirmé QlikSense Confirmé
CDI

Offre d'emploi
Consultant Data Digital - Google Suite / Piano Analytics F/H

Experis France
Publiée le

40k-45k €
Niort, Nouvelle-Aquitaine
Consultant Data Digital - Google Suite / Piano Analytics F/H - Niort Le contexte Experis recrute un Consultant Data Digital F/H pour intervenir au sein d'un grand acteur du secteur de l'assurance , dans un environnement digital à forte volumétrie de données. Vous intégrerez une équipe en charge de la collecte, de la transformation et de la restitution des données issues des canaux digitaux, au sein d'une organisation agile fonctionnant en mode SAFe , avec des livraisons régulières et orientées valeur métier. Vos missions Au cœur des enjeux data et reporting, vous interviendrez sur l'ensemble de la chaîne de valorisation des données digitales : Collaborer avec les équipes produit et métier pour définir les objectifs et KPI des features Accompagner la définition des besoins en tracking digital (Piano Analytics / GTM) Recetter les données en phase de test et après mise en production Préparer, transformer et ingérer les données dans BigQuery (Node.js) Mettre à disposition des données fiabilisées dans Looker Studio Participer à l'analyse des données produites et à l'identification d'axes d'amélioration En complément, vous serez amené(e) à : Superviser le bon fonctionnement des flux d'ingestion quotidiens et corriger les anomalies Intégrer de nouvelles sources de données pour le pilotage global des KPI Contribuer à l'amélioration continue des tracking, process et pratiques data Communiquer activement avec les équipes pluridisciplinaires (PO, UX, développeurs, testeurs, architectes)
Freelance

Mission freelance
Responsable Intégration ETL & Data Streaming (Talend / Kafka)

Kamatz
Publiée le
Apache Kafka
API
Gitlab

6 mois
La Défense, Île-de-France
Vos missions principales Au sein de l’équipe Architecture & Intégration, vous pilotez les services d’intégration de données autour des technologies Talend (Cloud / plateforme hybridée) et Kafka Confluent Cloud . À ce titre, vous serez en charge de : Maintien en conditions opérationnelles Support, suivi et maintenance des solutions existantes (CRM, Annuaire, PIM) Cadrage & accompagnement des projets Analyse et challenge des besoins métiers Définition des architectures techniques Conception des flux d’intégration Pilotage d’équipe internationale Management d’une équipe basée en Inde (développement, tests, déploiement) Organisation, priorisation et suivi des activités Gestion de projet Élaboration des plans de charge Construction et suivi des plannings Administration des plateformes Supervision et gestion opérationnelle de Talend (incluant On-Prem : upgrades, monitoring, incidents) Administration de Kafka Confluent Cloud Suivi budgétaire Pilotage de la facturation des plateformes Amélioration continue Définition et diffusion des bonnes pratiques (configuration, développement, architecture) Stack technique Talend Data Integration (v8) – Expert Kafka / Confluent Cloud API (JSON, XML, CSV) Java 8+ SQL / Bases de données Linux / Unix GitLab Salesforce (notions)
CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
CDI

Offre d'emploi
Revenue Data Analyst F/H - Finance, trésorerie (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Voisins-le-Bretonneux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Scrum Master - F/H

AIS
Publiée le
Scrum

1 mois
40k-50k €
250-500 €
Nantes, Pays de la Loire
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grand compte, vos missions seront les suivantes : - Accompagner les équipes dans l'application du cadre Scrum/Kanban au quotidien - Faciliter les évènements d'équipe (planning, synchi daily, review, rétrospective) - Aider les équipes à identifier et lever leurs irritants opérationnels - Mettre en oeuvre des démarches d'amélioration continue basées sur l'observation terrain - Encourager l'auto organisation et la responsabilisation collective - Faciliter les échanges entre équipes et parties prenantes - Accompagner les Product Owners sur la gestion du backlog et la priorisation - Sensibiliser les managers et parties prenantes aux principes agiles - Contribuer à l'alignement entre les équipes et les objectifs de la direction - Participer aux évènements de niveau train (PI Planning, ART sync, System Demo, Inspect & Adapt) - Favoriser la transparence, la synchronisation et la collaboration inter équipes
Freelance
CDI

Offre d'emploi
Chef de projet Infra DATA CENTER

AGH CONSULTING
Publiée le
Gestion de projet
Telecom

6 mois
Clamart, Île-de-France
Le chef de projet aura un rôle d’AMO. Il pilotera des projets depuis l’établissement de l’expression de besoin jusqu’au transfert des installations vers l’exploitation et sera en contact avec l’ensemble des acteurs du projets (fournisseurs, prestataires, maitrises d’œuvres de conception et d’exécution, Responsables d’exploitations, CSPS, Bureau de contrôle, etc…). Il animera et suivra également des sujets transverses nécessaires à la bonne organisation de l’activité VDR Data Center. Valider ou challenger les expressions de besoins émises par le client. Suivre et piloter les maitrises d’œuvre de conception et d’exécution. Analyser, challenger et valider les documents de conceptions avec arbitrage niveau 1 des solutions techniques Être garant des délais, des coûts, de la qualité pendant la durée globale des projets Analyser, négocier et valider les devis MMO et travaux Suivre le bon déroulement des travaux via la MOE. Garantir le respect des process et règles d’intervention de notre entreprise (Gestion des GCR, Demandes d’accès, PAQ, permis feu, ITST, etc…) Piloter la gestion contractuelle des partenaires référencés Participer aux réceptions des travaux avec le MOE, signature des PV, suivi des documents de réception, fiche de transfert, levée des réserves y compris DOE Réaliser l’interface avec les intervenants tiers (mainteneur, hébergement, sécurité, etc…) Parti per aux réunions de chantier avec les MMO (suivant le type de projet) Réaliser un reporting récurrent Piloter ou assister à sujets transverses à l’activité en collaboration avec l’équipe et si besoin les supports transverses. Garantir de la continuité de service des sites en exploitation et de la sécurité des intervenants.
1230 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous