Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 969 résultats.
Freelance

Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)

Lùkla
Publiée le
Snowflake

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
CDI
Freelance

Offre d'emploi
Administrateur système

SWING-ONE
Publiée le
Administration linux
Administration système
Azure

6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un administrateur système . Dans un environnement IT hybride et critique, l’Administrateur / Administratrice Systèmes -M365 assure l’exploitation, l’évolution, la sécurité et la disponibilité des systèmes de l’entreprise. Il intervient sur des systèmes Windows et Linux en plateformes virtualisées VMware, ainsi que sur les services Microsoft 365 / Entra ID. Missions principales Administration des Systèmes • Installer, configurer les serveurs (Windows / Linux) • Administrer et maintenir les environnements Windows Server et Linux • Administrer et maintenir les Forêts / Domaines Active Directory • Gérer les services systèmes : DNS, DHCP, AD, NTP, fichiers, impression • Concevoir et maintenir les GPO / PSO • Mettre en œuvre les délégations de droits • Gérer les identités, les accès et les habilitations • Automatiser les tâches récurrentes (scripts Bash, PowerShell) • Mettre en œuvre les politiques de patch management • Superviser les performances et assurer la disponibilité des systèmes • Assurer le durcissement (hardening) des systèmes et des services d’annuaire Administration Microsoft 365 / Entra ID • Administrer la plateforme Microsoft 365 (Exchange Online, Teams, SharePoint, OneDrive) • Gérer Entra ID (Azure AD) et les synchronisations (Azure AD Connect, Entra Connect, Cloud Sync) • Mettre en œuvre et maintenir les politiques de sécurité (MFA, Conditional Access, Zero Trust, SSO) • Gérer les identités hybrides (on-premise / cloud) • Optimiser les coûts et la performance des ressources cloud Sécurité et conformité • Appliquer les exigences réglementaires (RGPD, HDS, etc.) • Participer aux audits de sécurité et de conformité • Mettre en place des mesures de protection des données sensibles • Analyser et traiter les incidents de sécurité • Participer à la gestion des risques IT Exploitation & Support • Assurer un support de niveau 2 et 3 • Diagnostiquer les incidents complexes • Apporter une expertise technique aux équipes IT • Rédiger et maintenir la documentation technique • Participer aux projets d’évolution des systèmes
CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
CDI
Freelance

Offre d'emploi
Data Engineer IA (H/F)

STORM GROUP
Publiée le
IA
Large Language Model (LLM)

3 ans
48k-58k €
450-550 €
Île-de-France, France
La mission principale du profil retenu sera • Concevoir et développer des solutions de traitement de données complexes • Implémenter solutions exploitant des modèles d'IA générative • Participer à la mise en place de prompts et de RAG • Collaborer étroitement avec les métiers et les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. • Démontrer une expérience avérée dans le traitement de données non structurées ainsi que la maitrise de traitement de fichiers de différents types tels que Word, PDF, PowerPoint, CSV
Freelance
CDI

Offre d'emploi
Data Engineer / Développeur Java Full Stack

AVA2I
Publiée le
Angular
API REST
AWS Cloud

1 an
Île-de-France, France
Dans le cadre du développement de ses plateformes data et applicatives, notre client recherche un Data Engineer / Développeur Java Full Stack afin de renforcer ses équipes techniques. Vous interviendrez sur l’ensemble de la chaîne de traitement de la donnée, de la collecte à la visualisation, dans un environnement moderne orienté microservices, cloud et DevOps . Missions principales 🔹 Développement backend & collecte de données Concevoir et développer des composants en Java (Spring, Hibernate) Mettre en place des modules de collecte de données (API, fichiers, bases de données) Développer et maintenir des API REST/SOAP en respectant les bonnes pratiques (TDD, sécurité) Implémenter des solutions d’authentification ( OAuth2, SSO ) 🔹 Traitement de données (Big Data) Participer à la mise en œuvre de traitements sous Apache Spark 3 Optimiser les pipelines de données (collecte, transformation, distribution) Assurer la performance et la fiabilité des traitements 🔹 Développement Front & DataViz Développer des interfaces utilisateurs en Angular Concevoir des dashboards et rapports sous Power BI Collaborer avec les équipes métier pour valoriser la donnée 🔹 DevOps & Infrastructure Déployer et gérer des applications sur des clusters Kubernetes Participer à l’optimisation des environnements (CI/CD, performance) Collaborer avec les équipes infrastructure pour : le déploiement la gestion des ressources la sécurité applicative 🔹 Qualité & delivery Écrire et maintenir des tests automatisés (Cucumber) Participer au cycle complet de delivery (build, déploiement, mise en production) Assurer le suivi post-production 🔹 Amélioration continue Être force de proposition sur les choix techniques et l’architecture Contribuer à l’amélioration des performances et de la qualité des applications
Freelance
CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering

1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Freelance

Mission freelance
Data & Analytics Engineer (SQL / DBT)

Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Freelance

Mission freelance
Solution Architecte Power BI / Microsoft Fabric - Administration & Architecture

CHOURAK CONSULTING
Publiée le
CI/CD
Confluence
DAX

3 mois
400-700 €
Paris, France
Nous recherchons un Solution Architecte Power BI / Microsoft Fabric avec une expertise avancée en administration Microsoft Fabric , pour intervenir sur des sujets stratégiques de gouvernance, architecture et performance. ⚠️ Il ne s’agit pas d’un poste de Data Analyst Power BI. Nous recherchons un référent technique capable d’administrer les capacités Fabric et de conseiller sur l’architecture globale . 🎯 Contexte de la mission Vous serez le point d’entrée technique sur l’ensemble des sujets Power BI / Fabric , avec une forte responsabilité sur : L’administration des capacités Fabric L’optimisation des performances La gouvernance et la sécurité Les bonnes pratiques d’architecture BI ⚙️ Missions principales Administrer et monitorer les capacités Microsoft Fabric (analyse de consommation, optimisation, gouvernance). Définir et mettre en œuvre les standards d’architecture Power BI. Superviser la modélisation des datasets (modèle en étoile, optimisation). Garantir la sécurité des données : RLS, OLS, gestion des accès . Mettre en place et améliorer les pratiques CI/CD Power BI . Accompagner les équipes BI et Data sur les bonnes pratiques. Challenger les choix d’architecture et assurer la cohérence globale.
Freelance
CDI

Offre d'emploi
Data Scientist

ONSPARK
Publiée le
Cloudera
Hadoop
Python

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Scientist pour accompagner nos clients grands comptes. Vous travaillerez sur des données massives et complexes, et contribuerez à des cas d'usage à fort impact : modèles de prévision, simulateurs, analyses statistiques avancées, détection de tendances, dans un environnement Big Data on-premise (Cloudera CDP, Cloudera Machine Learning) avec accès à des IDE modernes (Jupyter, RStudio, VSCode). Responsabilités Concevoir et entraîner des modèles de Machine Learning et Deep Learning Analyser des jeux de données complexes et volumineux Collaborer avec les Data Engineers pour la mise en production des modèles Accompagner les équipes métier dans l'interprétation des résultats Contribuer aux cas d'usage IA et NLP de la plateforme
Freelance

Mission freelance
Consultant(e) technique SAP Data Migration SQL ADM

Signe +
Publiée le
SAP ECC6
SAP S/4HANA
SQL

6 mois
Le Plessis-Robinson, Île-de-France
Bonjour, Nous recherchons un(e) Développeur SAP Data Migration (SQL / ADM) pour un client basé à Le Plessis-Robinson : Contexte : Dans le cadre d’un projet de migration SAP ECC vers SAP S/4HANA, notre client met en œuvre l’outil SAP ADM (éditeur Syniti) pour piloter la migration des données. Profil : Développeur / Consultant technique orienté Data Migration SAP 5 à 10 ans d’expérience minimum Excellente maîtrise du SQL (critique) Bonne connaissance des tables SAP (ECC idéalement) Expérience en migration de données / transformation / mapping Connaissance d’un outil de migration (ADM, LSMW, ETL…) appréciée Capacité à évoluer dans un environnement projet structuré Environnement : SAP ECC / SAP S/4HANA SQL SAP ADM (formation prévue) Démarrage : ASAP Durée : À définir (long terme) Couverture : Temps plein Hybride : 3 jours sur site à Le Plessis-Robinson / 2 jours télétravail TJM : Selon profils Vous êtes intéressé(e), merci de m’adresser votre CV à Cordialement Célian Mahieu 07 50 75 68 53 Signe +
Freelance
CDI

Offre d'emploi
Data Architect

ONSPARK
Publiée le
Cloudera
Hadoop

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Architect pour accompagner nos clients grands comptes. Responsabilités Concevoir et faire évoluer l'architecture globale de la plateforme de données Définir les standards et bonnes pratiques de modélisation Accompagner les équipes techniques dans leur mise en œuvre Assurer la cohérence entre les besoins métier et les choix techniques Veiller à la sécurité et à la conformité des architectures (RGPD, ISO 27001)
Freelance
CDI

Offre d'emploi
Data Analyst Qlik Sens - Rennes

Argain Consulting Innovation
Publiée le
Qlik
Qlik Sense
Qlikview

2 ans
40k-45k €
450-470 €
Rennes, Bretagne
Dans le cadre du renforcement de l’équipe décisionnelle, nous recherchons une prestation spécialisée dans la restitution et l’analyse de données sous Qlik afin d’accompagner les métiers dans la construction, l’évolution et l’optimisation de leurs tableaux de bord. Principales missions Accompagnement des métiers dans l’expression des besoins et participation aux phases de recette fonctionnelle. Analyse des sources, modélisation décisionnelle et conception des applications Qlik. Développement, évolution et maintenance de tableaux de bord QlikView et/ou Qlik Sense . Mise en forme, datavisualisation et valorisation des données pour faciliter l’aide à la décision. Contribution à l’optimisation des performances : modèles de données, scripts de chargement, organisation des applications. Documentation fonctionnelle et technique, participation aux travaux d’industrialisation. Support, diagnostic et résolution d’incidents sur les applications de restitution.
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM

3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Freelance

Mission freelance
Chef de projet - data API Management, ETL, Kafka, NIFI, SAP BI4 Nantes ( 3 jours TT)/du

WorldWide People
Publiée le
API
Pilotage

12 mois
340-370 €
Nantes, Pays de la Loire
Chef de projet avec connaissances data API Management, ETL, Kafka, NIFI, SAP BI4 Nantes ( 3 jours de télétravail) Notre client a en charge le maintien en conditions opérationnelles, l’amélioration du service des socles Echange de données : plateformes mutualisées (ETL, Anonymisation, API Management, KAFKA) ou composants applicatifs (NIFI). Le Chef de Projet aura pour principales tâches: -Pilotage des travaux de build et de MCO de ces plateformes de services -Garant de la qualité des services dont il aura la charge -Amélioration continue Nous recherchons pour cette prestation un chef de projet IT confirmé et qui a des connaissances autour de sujets orientés data
Freelance

Mission freelance
Chef de projet Data - Lille

ICSIS
Publiée le
Méthode Agile

1 an
450-550 €
Lille, Hauts-de-France
La mission consiste à : Accompagner les interlocuteurs métier Piloter les projets de mise en place de flux Data Produire l'ensemble des livrables en accord avec la méthodologie Documenter et industrialiser Compétences attendues : Expériences significatives en chefferie de projet autour de la DATA Bonne maitrise technologique Pilotage de plusieurs projets simultanés Animation de réunions projets et suivi de plan d'action Animation d'acteurs internes et externes Mission basée sur la métropole lilloise avec télétravail partiel
CDI

Offre d'emploi
Lead data engineer H/F

HAYS France
Publiée le

45k-50k €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer de nouveaux pipelines et transformations de données à partir de spécifications fonctionnelles Créer, maintenir et faire évoluer des rapports et tableaux de bord Power BI Optimiser les performances des traitements et des modèles de données Analyser et corriger les incidents techniques sur les flux de données et les tableaux de bord Garantir des délais de résolution adaptés, notamment pour les incidents bloquants liés aux données clients Assurer le suivi des tickets de bugs et produire un reporting clair à destination du management Animer les revues de code hebdomadaires pour l'ensemble de l'équipe data Accompagner techniquement et méthodologiquement les développeurs plus juniors Être force de proposition et interlocuteur technique de référence pour l'équipe Reprendre temporairement le périmètre d'un autre développeur en cas d'incident, d'urgence ou d'évolution critique Garantir la continuité opérationnelle du RUN data
4969 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous