L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 44 résultats.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Télétravail partiel
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
Architecte Data – Expert Azure
Publiée le
Azure
Big Data
3 ans
650-700 €
Paris, France
Télétravail partiel
Architecte Data – Expert Azure L’Architecte Data interviendra en tant que référent transverse sur les études, les cadrages et la conception d’architectures data bâties autour de l’écosystème Azure (Azure Data Lake, ADF, Databricks, Synapse/Fabric, Purview…). Au-delà de l’expertise Azure, il jouera un rôle de conseil , capable de vulgariser les enjeux data et de présenter des solutions claires et impactantes auprès des directions métier et exécutives, dans une posture “cabinet de conseil”. Responsabilités principales : Réaliser des études d’architecture et de chiffrage (DAT, estimations, roadmaps) avec un focus fort sur Azure Data . Concevoir des architectures data modernes sur Azure : ingestion, stockage, modélisation, gouvernance, analytics/AI. Traduire les besoins métier en solutions Azure pragmatiques, sécurisées et alignées sur les standards de l’entreprise. Produire des livrables premium : présentations PowerPoint, supports de cadrage, pitchs d’arbitrage, dossiers de décision. Vulgariser les sujets Azure auprès d’interlocuteurs non techniques (métiers, directions). Conseiller, challenger et proposer des trajectoires data orientées Azure, en réalisant benchmarks et recommandations. Travailler en proximité avec les équipes Data Engineering, BI, IA, Cloud et les autres architectes. Profil recherché : Bac+5 (ingénieur ou équivalent). 5 à 10 ans d’expérience minimum en architecture data , avec une expertise Azure confirmée . Maîtrise des principaux services Azure Data : Data Lake, ADF, Databricks/Fabric, Synapse, Purview, ETL/ELT, sécurité, gouvernance. Excellent relationnel, capacité à adapter son discours selon les interlocuteurs (métiers, DSI, direction). Solide maîtrise de la structuration et mise en scène de l’information (slides, storytelling, cadrage). Expérience en conseil / ESN appréciée (présentation, posture, relation client). Équilibre stratégie / technique : parler d’architecture sans rentrer dans le code. Soft skills clés : Pédagogue, excellent vulgarisateur. Curieux, structuré, orienté impact. Parfaitement à l’aise dans les présentations. Posture de consultant : écoute, influence, crédibilité.
Mission freelance
Architecte Data - Toulouse
Publiée le
Architecture
AWS Cloud
Big Data
6 mois
Toulouse, Occitanie
Environnement technique de la prestation À la suite d’une réorganisation interne ayant entraîné le départ de collaborateurs clés, le client fait face à une perte de maîtrise opérationnelle de sa plateforme Data. Cette dernière, incluant les services BI (Data Warehouse et Power BI), est désormais considérée comme un service critique, avec une exigence de disponibilité et de performance 24/7. Cette évolution s’accompagne d’une sollicitation accrue de la plateforme et d’une consommation continue des données, nécessitant une réactivité renforcée et une supervision proactive. Prestation attendue La mission consistera à travailler sur : Frameworks d’ingestion et restitution : Définir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE Framework « Observabilité & qualité des données » : Définir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. Monitoring des flux & santé de la plateforme : Contribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) Plan de migration SSIS + SQL Server → Snowflake : Définir la méthodologie (phases, outils, patterns). Identifier les risques et dépendances. Stratégie d’Access Management : (priorité 2) Définir les rôles, politiques RBAC/ABAC. Garantir la conformité avec les standards de sécurité et gouvernance. Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : Documentation des frameworks ingestion & restitution(As is > To be). Plan d’observabilité & qualité des données (métriques, outils, roadmap). [CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. Plan de migration (méthodologie, roadmap, estimation effort). Stratégie d’Access Management (modèle de rôles, règles d’accès). Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)
Publiée le
Cloudera
Google Cloud Platform (GCP)
1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Mission freelance
ARCHITECTE DATA SNOWFLAKE AWS-anglais courant- Habilitable H/F
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Snowflake
40 jours
400-600 €
Blagnac, Occitanie
La mission consistera à travailler sur : •Frameworks d’ingestion et restitution : oDéfinir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE •Framework « Observabilité & qualité des données » : oDéfinir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. •Monitoring des flux & santé de la plateforme : oContribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) •Plan de migration SSIS + SQL Server → Snowflake : oDéfinir la méthodologie (phases, outils, patterns). oIdentifier les risques et dépendances. •Stratégie d’Access Management : (priorité 2) oDéfinir les rôles, politiques RBAC/ABAC. oGarantir la conformité avec les standards de sécurité et gouvernance. •Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : •Documentation des frameworks ingestion & restitution(As is > To be). •Plan d’observabilité & qualité des données (métriques, outils, roadmap). •[CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. •Plan de migration (méthodologie, roadmap, estimation effort). •Stratégie d’Access Management (modèle de rôles, règles d’accès). •Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
Offre d'emploi
Data Engineer Snowflake - Lyon
Publiée le
Snowflake
40k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser et conseiller pour améliorer l’efficacité des solutions Snowflake chez nos clients. - Participer à la rédaction des dossiers d’architecture et des spécifications techniques. - Mettre en œuvre des stratégies d’exploitation de la plateforme Snowflake. - Développer et superviser des flux d’intégration (batch ou streaming) pour des volumes importants de données. - Surveiller les jobs ETL/ELT, logs et alertes, et optimiser les temps de traitement. - Administrer Snowflake chez ton client (gestion des rôles, permissions, warehouses). - Optimiser les requêtes SQL (à l’aide du Query Profile). - Contrôler la qualité des données (Data Quality) et la consommation des ressources (FinOps). - Tester, valider et documenter les développements. - Réaliser des audits et projets d’optimisation.
Offre d'emploi
Développeur Stambia (H/F)
Publiée le
Stambia
36k-44k €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre de l’évolution de sa plateforme de données, le client souhaite renforcer son équipe Data Integration par un développeur Stambia . L’objectif est d’assurer le développement, la maintenance et l’optimisation des flux d’intégration de données, dans un contexte de modernisation du SI et de forte interconnexion entre systèmes métiers. Concevoir, développer et maintenir des mappings et processus d’intégration avec Stambia ETL / DI Réaliser les interfaces de chargement (batch ou temps réel) entre les différentes applications métiers et le Datawarehouse Mettre en place des flux d’alimentation de référentiels (produits, clients, ventes, etc.) Garantir la qualité et la cohérence des données (contrôles, rejets, logs) Contribuer à la documentation technique et au transfert de compétences Participer à la revue de code et à l’optimisation des performances Assurer le MCO des jobs Stambia (monitoring, correction des anomalies, évolutions) Participer à la migration des flux vers des environnements Cloud ou Big Data (selon roadmap du client) Équipe Data Integration (4 à 6 personnes) Product Owner / Data Architect Référent technique Stambia Collaborations transverses avec les équipes BI, DataOps et Infrastructure
Mission freelance
MDM Architecte
Publiée le
Master Data Management (MDM)
3 mois
Paris, France
Télétravail partiel
L’ Architecte Master Data occupe un rôle central au sein de l’équipe Master Data. Sur la base des cas d’usage métier (c’est-à-dire des besoins exprimés par les équipes business), il ou elle est responsable de : Définir et concevoir la solution (avec les spécifications fonctionnelles et techniques) dans le cadre de notre Master Data Operating Model — incluant les entités, les champs, les interfaces et les métadonnées — maintenu dans notre l'outil. Gérer le consultant développement chargé de réaliser les développements techniques dans l’outil MDM, Définir les tests appropriés pour valider la solution développée, Collaborer avec l’équipe de la Dev Factory responsable de la couche AWS Redshift , afin de les informer sur les liens à établir entre les données transactionnelles Analyser les besoins et concevoir l’architecture / les spécifications des interfaces avec les autres systèmes. Ainsi, le ou la Master Data Architect est à la fois orienté(e) métier (pour comprendre les besoins business) et technique (pour concevoir des solutions adaptées). Une bonne connaissance de l’outil MDM sont fortement appréciées. Enfin, la maîtrise de l’anglais et une expérience dans un environnement international sont indispensables.
Mission freelance
DATA Engineer - AWS(H/F)
Publiée le
AWS Cloud
Azure DevOps
Data Lake
1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Mission freelance
Consultant RPA
Publiée le
18 mois
600 €
Roissy-en-France, Île-de-France
Objectifs de la mission Stabiliser la plateforme RPA et résoudre les problèmes existants. Remettre à plat l'architecture et assurer la gouvernance. Accompagner les métiers pour relancer les projets RPA. Mettre en place les bonnes pratiques et préparer l'évolution vers le Citizen Development. Périmètre et responsabilités Responsable RPA Autonomie forte : le consultant sera le référent unique RPA, en lien avec un architecte data. Actions clés : Diagnostic et correction des problèmes rencontrés sur la plateforme. Migration ou upgrade de la version UiPath. Gestion des accès et sécurisation. Support aux métiers pour le développement et la gouvernance. Interactions en anglais (documentation + échanges ponctuels avec l'équipe allemande).
Mission freelance
Data Engineer (F/H) - 56
Publiée le
Apache Kafka
Java
Shell
1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- SASU à l'IR & ARE
- Créer une société et toucher le chômage, comment gérer ?
- Décider quand on est freelance selon ses chiffres
- Facturation électronique 05 : Que faire si pas de factur.X ?
- Une ESN peut-elle suspendre les paiements pour ça ?
44 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois