Trouvez votre prochaine offre d’emploi ou de mission freelance Service Cloud
Votre recherche renvoie 330 résultats.
Offre d'emploi
Ingénieur IA Générative / MLOps (H/F)
SMARTPOINT
Publiée le
AWS Cloud
Docker
Kubernetes
6 mois
50k-60k €
470-500 €
Île-de-France, France
Dans le cadre du développement de ses capacités en Intelligence Artificielle , notre client recherche un Ingénieur IA Générative / MLOps . Vous interviendrez sur l’ensemble du cycle de vie des solutions IA, de l’expérimentation à la mise en production, avec un focus sur les architectures GenAI (RAG, agents, fine-tuning) . Vos missions Implémenter et déployer des modèles d’IA (Machine Learning & IA Générative) Industrialiser les solutions via des pratiques MLOps Mettre en place le monitoring, la supervision et la maintenance (MCO) des modèles Concevoir des pipelines de données et d’ingestion Optimiser les performances (coûts, temps de calcul, scalabilité) Évaluer des Proof of Concept (PoC) et recommander les meilleures architectures Mettre en œuvre des solutions RAG (Retrieval-Augmented Generation) Travailler sur des approches fine-tuning et prompt engineering Accompagner les équipes sur les bonnes pratiques IA et industrialisation Livrables attendus Études et cadrages de cas d’usage (4 à 6 par an) Développement de pipelines d’ingestion (15 à 20 par an) Déploiement de modèles en production (15 à 20 par an) Maintenance et optimisation des solutions IA (3 à 5 par an)
Mission freelance
Senior Python Engineers orientés Data & Distributed Systems
Comet
Publiée le
AWS Cloud
Numpy
Pandas
6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT
OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT
3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Offre d'emploi
DEVOPS
Peppermint Company
Publiée le
AWS Cloud
Bash
ELK
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Soutien opérationnel et technique Assurez la stabilité et la fiabilité des applications fonctionnant sur AWS (emplois EMR, charges de travail EKS, Redshift, Glue). Maintenir et dépanner les processus Jenkins, les pipelines CI/CD, les outils de surveillance, d'alertes et de visualisation (services AWS, ELK). Surveillez l'activité de la plateforme, l'utilisation du système et la consommation des coûts. Surveillez l'évolution de la charge de code et l'activité d'intégration Génie logiciel et outillages Refactoriser les scripts Bash en outils Python maintenables. Améliorer la discipline de l'ingénierie : tests, gestion des versions, documentation, structure du code. Soutenir les équipes dans l'adoption de pratiques d'ingénierie logicielle plus solides. Livrables de migration Migrez les pipelines Jenkins vers un nouvel orchestrateur. Prendre en charge la migration des données vers Azure et AWS Amadeus Datamesh. Adapter les services de plateforme existants et les composants applicatifs au nouvel environnement. Contribuer à des normes unifiées CI/CD entre les équipes ATI. Une certaine compréhension des concepts du Big Data et de la gestion du cycle de vie des données tels que les partitions, l'évolution des schémas, les contrôles de qualité des données et l'optimisation de base des coûts/performances est appréciée.
Mission freelance
Generative AI Engineer (H/F) 92
Mindquest
Publiée le
Amazon S3
AWS Cloud
Python
3 mois
La Défense, Île-de-France
Développement IA / Computer Vision: - Concevoir et développer de nouveaux cas d’usage en vision par ordinateur : - Détection de corrosion - Segmentation 2D/3D - Classification d’anomalies - Améliorer les performances et la robustesse des modèles existants MLOps & Industrialisation: - Concevoir et déployer une infrastructure MLOps complète sur AWS - Structurer et automatiser les pipelines de Machine Learning : - Entraînement - Validation - Versioning - Déploiement - Mettre en place le suivi des expérimentations et la gestion des modèles - Définir et appliquer les bonnes pratiques d’industrialisation : - CI/CD - Monitoring des modèles - Gestion des versions Gestion des données: - Gérer et structurer les datasets d’images 2D/3D issus des drones - Contribuer à l’amélioration continue de la qualité des données Collaboration transverse: - Travailler en étroite collaboration avec les équipes techniques et métiers - Assurer la cohérence technique et fonctionnelle des solutions développées
Mission freelance
Product Owner (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
Backlog management
Confluence
2 ans
480-580 €
Bordeaux, Nouvelle-Aquitaine
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Product Owner (H/F) à Bordeaux, France. Contexte : Définir et piloter la stratégie de son produit en lien avec les besoins utilisateurs, les enjeux métier et les capacités de l’équipe. Les missions attendues par le Product Owner (H/F) : 1. Recueil et formalisation des besoins Recueil et formalisation des besoins Animer des ateliers de recueil des besoins métiers (ateliers de cadrage, ateliers utilisateurs, interviews, etc.). Traduire les besoins utilisateurs et métiers en User Stories, Features et Épics clairs, compréhensibles et actionnables. Prioriser les demandes selon leur valeur métier, complexité technique et dépendances. 2. Gestion du Product Backlog Maintenir un backlog produit à jour, clair, hiérarchisé et aligné sur les objectifs stratégiques et tactiques. Arbitrer les priorités avec les parties prenantes Participer, et dans certains cas préparer et animer les cérémonies agiles. 3. Pilotage fonctionnel et validation Valider les livraisons à l’issue de chaque cycle (recette, démo utilisateurs, feedbacks etc.). Définir et piloter la stratégie de tests fonctionnels (End to End). Assurer la conformité du produit livré avec les exigences métier. 4. Communication et coordination Assurer une interface fluide entre les profils métiers et techniques de l’équipe produit Collaborer avec la discipline Méthodes concernant les bonnes pratiques sur la gestion produit Communiquer régulièrement l’état d’avancement, les choix de priorisation, les risques et alertes vers les acteurs du pilotage de l’équipe produit (Pilote Produit, Pilote De Delivery) 5. Suivi de la valeur & amélioration continue Contribuer au suivi et à l’analyse des KPIs de performance produit (ex. : taux d’adoption, NPS, taux de satisfaction, etc.). Identifier les leviers d'amélioration continue sur les fonctionnalités, l’expérience utilisateur ou les processus agiles. Capitaliser sur les retours de la discipline Méthodes
Mission freelance
Développeur Senior - Expert Intégration Salesforce
CAT-AMANIA
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Microsoft SQL Server
6 mois
400-510 €
Île-de-France, France
Nous recherchons un consultant senior spécialisé en intégration de données pour accompagner un acteur majeur de la protection sociale dans la refonte de ses flux inter-applicatifs. L'objectif principal est la conception et le déploiement d'une trentaine de flux ETL SSIS permettant d'alimenter Salesforce FSC à partir de sources hétérogènes. Responsabilités : Conception et développement de flux SSIS (dont 5 flux complexes). Extraction de données depuis des fichiers CSV stockés sur des buckets AWS S3. Transformation des données vers un format pivot cible. Injection des données dans Salesforce FSC via le connecteur KingswaySoft. Réalisation des tests unitaires et d'intégration. Rédaction de la documentation technique et des dossiers de mise en production. Profil recherché : Expertise confirmée sur la suite SQL Server Integration Services (SSIS). Expérience impérative sur le connecteur KingswaySoft pour Salesforce. Maîtrise des environnements Cloud (AWS S3). Capacité à travailler de manière autonome sur des problématiques de mapping complexes. Rigueur dans la documentation et le respect des référentiels de développeme
Offre d'emploi
AWS Platform Engineer - Geneva (Switzerland)
LEVUP
Publiée le
AWS Cloud
Kubernetes
12 mois
Genève, Suisse
Vous intégrez une équipe spécialisée dans la fourniture de solutions d’intégration innovantes pour l’ensemble des lignes métiers et des sites. Notre expertise couvre les environnements on-premise et cloud, le conseil ainsi que la gestion de projets. • Gestion des mises en production : piloter le cycle de release, corriger les anomalies et déployer de nouvelles fonctionnalités en collaboration avec le Product Manager. • Gestion des infrastructures on-premise (machines virtuelles Windows et Linux). • Automatisation & optimisation : maintenir et refactoriser les automatisations à l’aide d’outils tels que Puppet, Ansible et Terraform • Gestion des incidents : analyser les incidents et anomalies, identifier les causes racines et mettre en œuvre des solutions pérennes • Infrastructure as Code (IaC) : automatiser le provisionnement et la gestion des ressources cloud via Terraform, GitHub et GitHub Actions • Performance & sécurité : optimiser les environnements en termes de coûts, performances et sécurité, et mettre en place des pipelines CI/CD • Supervision & maintien en conditions opérationnelles : maintenir les outils de supervision (ex. Rundeck, Grafana) pour les environnements on-premise et cloud • Méthodologies DevOps : appliquer les bonnes pratiques DevOps, participer aux rotations d’astreinte et garantir l’alignement avec les exigences métier et sécurité • Migration et gestion Cloud : contribuer à la stratégie de migration vers le cloud AWS. • Documentation & intégration : rédiger la documentation technique et gérer plusieurs applications dans des environnements hybrides • Travail en équipe : collaborer en binôme avec les équipes afin de délivrer les activités efficacement et dans les délais
Mission freelance
Ingénieur DevOps AWS
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Azure Kubernetes Service (AKS)
DevOps
12 mois
600-630 €
Paris, France
Contexte La prestation concerne les activités nécessaires à une démarche DevOps chez notre client et l’amélioration de l’usine CI/CD dans notre chaîne de Delivery. L'équipe en charge de ces activités travaille en étroite collaboration avec les équipes sécurité du SI, développement et exploitation sur la mise en place de cette chaîne. L'équipe travaille aussi sur la mise en place de certaines infrastructures d'hébergement, sur les nouveaux projets, en y connectant notre usine logicielle et outils CI/CD mis en place. La mission se déroule au sein de l’équipe DEVOPS. La mission vise ainsi à : Fournir des conseils sur les bonnes pratiques de conception architecturale pour de multiples applications dans le cloud AWS et projets de l'entreprise ; Évaluer les besoins en matière d'applications cloud et formuler des recommandations architecturales pour la mise en œuvre, le déploiement et l'approvisionnement des applications sur AWS ; Contribuer à réduire les cycles de livraison des solutions applicatives via l'automatisation Contribuer à l'amélioration continue de notre usine logicielle (CI/CD). Missions Industrialiser le déploiement et la gestion des infrastructures cloud via l’Infrastructure as Code et des pipelines CI/CD ; Assurer la fiabilité, la sécurité et l’observabilité des plateformes en production (Day‑2 Ops, automatisation) ; Piloter la maîtrise des coûts (FinOps) et l’intégration des architectures hybrides (on‑prem et AWS) ; Réaliser et restituer des études et des PoC ; Documenter l’activité et les process ; Concevoir et maintenir les outils et services ; Collaborer aux projets : conseil, fourniture des éléments nécessaires aux chefs de projet, participation et contribution aux instances des projets ; Collaborer à des projets impliquant une architecture complexe, des systèmes découplés, des interactions entre services gérés par différents acteurs ; Rédiger des Documents d’Exploitation (DEX) ; Assurer le reporting d’activité (fréquences hebdomadaire et mensuelle). Une période de montée en compétence est prévue en début de mission, avec une prise de responsabilité progressive. Outils & Environnement Pipelines DevSecOps : Gitlab, Jenkins, Nexus, Artifactory, SonarQube, Checkmarx, Ansible Administration de clusters Kubernetes Développement Infrastructure as Code (Terraform, CloudFormation) Scripts Python et Bash Cloud provider AWS Méthodologies Agile Scrum et Kanban Concepts de cybersécurité (AppSec, DevSecOps, bonnes pratiques) Objectifs attendus Réalisation et restitution d’études et de PoC Documentation de l’activité et des process Conception et maintien des outils et services Collaboration aux projets et instances Rédaction de Document d’Exploitation (DEX) Reporting d’activité hebdomadaire et mensuel
Mission freelance
Développeur Fullstack AWS
Signe +
Publiée le
AWS Cloud
React
SQL
6 mois
400-420 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients 2 développeurs full stack AWS avec un niveau d’anglais professionnel (B2 ou +). Rôle : Le candidat fera partie de l'équipe de développement. Il aura pour responsabilité de se familiariser avec l'application et de contribuer au développement, à la validation et à la mise en service. Cadre SCRUM • Participation aux cérémonies SCRUM (planification de sprint, réunion quotidienne, rétrospective, affinement du backlog) • Participation aux estimations des User Stories et aux SWAG • Participation aux réunions internes (hebdomadaires avec la direction) Développement • Contribuer au développement du front-end (React) et du back-end (TypeScript) au sein de l’équipe • Tests unitaires Documentation • Capitaliser sur la page Confluence d’Airbus • Rédiger de la documentation technique si nécessaire
Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)
ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT
1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Mission freelance
POT9054 - Un Consultant MES - DS APRISO
Almatek
Publiée le
AWS Cloud
6 mois
Le Havre, Normandie
Almatek recherche pour l'un de ses client, un Consultant MES - DS APRISO sur Le Havre. Contexte & Objectifs de la mission Le consultant interviendra sur : L’analyse de l’existant et des besoins métiers (production, qualité, maintenance, logistique) Le cadrage fonctionnel MES et le suivi métier L’accompagnement des métiers dans la projection des usages d’une ligne de production digitalisée La réduction des usages Excel et des saisies manuelles Le transfert de compétences vers les équipes internes Périmètre fonctionnel (exemples) Digitalisation de processus aujourd’hui manuels / Excel : Relevés de cotes produit et données process Rapports qualité (LICA, LIVA, PRID, essais) Gammes de retouche et récupération Calculs conditionnels de conformité produit Standardisation des flux de données : Conformité produit Traçabilité long terme Archivage client Analyses statistiques de process (SPC, Once SPC) Autres processus digitalisés : Maintenance niveau 1 & 2 réalisée par le producteur Prise et fin de poste Interaction étroite avec l’exécution des Ordres de Fabrication dans le MES Environnement technique MES : DS Apriso MCS : PTC ThingWorx ERP : SAP ECC6 EHP7 SP5 PLM : 3DEXPERIENCE Data Platform : AWS (plateforme interne) Middleware : MuleSoft Compétences attendues Techniques & fonctionnelles Architecture SI industriels (OT / IT) Projets MES intégrés ERP / PLM / MCS / SCADA Environnements industriels temps réel, qualité, traçabilité Soft skills Animation d’ateliers métiers Capacité de synthèse et de restitution Suivi de projet Force de proposition et adaptabilité Livrables attendus Spécifications fonctionnelles (anglais) Plans de tests (qualification, pré?prod, E2E) Plans d’interfaçage Documentation de formation & modes opératoires PCA Suivi des tickets et ajustements fonctionnels Feuille de route projet et recommandations data
Offre d'emploi
Data Engineer
UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)
1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
Offre d'emploi
Architecte Data conteneurisation H/F
SMARTPOINT
Publiée le
Angular
AWS Cloud
Java
12 mois
70k-95k €
650-730 €
Île-de-France, France
Dans un contexte de transformation digitale et de modernisation des architectures, vous intervenez en tant qu’expert technique et data pour garantir la performance, la conformité et la robustesse des socles techniques . Vous jouez un rôle clé dans la conception d’architectures modernes, notamment autour des environnements conteneurisés et cloud . Vos missions: Garantir la conformité et la performance des socles techniques, avec une expertise sur les architectures conteneurisées et le développement de services innovants Revues et audits de code Préconisations d'architectures (conteneurisation) Développement de PoC et de services avancés Expertise et support aux équipes projet Les livrables: 6 à 8 revues/audits de code par an 6 à 8 études d’architecture par an 3 à 5 PoC / PoT par an Participation à la résolution de 6 à 8 incidents par mois
Offre d'emploi
Architect Data
The Yellow Office
Publiée le
Architecture
AWS Cloud
Microsoft SQL Server
6 mois
Toulouse, Occitanie
Data Architect | AWS / Snowflake | Toulouse | Freelance Nous recherchons un Data Architect expérimenté pour intervenir sur des sujets d’architecture, de migration et de structuration de plateformes data dans un environnement international. Informations mission • Localisation : Toulouse - 2 jours de TT • Contrat : Freelance • Démarrage : ASAP • Durée : Mission longue • TJM : Selon expérience • Expérience : 10 à 15 ans minimum • Anglais courant requis Votre rôle • Concevoir et faire évoluer l’architecture data globale • Définir les flux d’ingestion, de transformation et de stockage • Structurer les modèles de données et les usages analytiques • Accompagner les projets de migration (legacy vers cloud) • Garantir la performance, la sécurité et la gouvernance des données • Challenger les choix techniques et améliorer l’existant Environnement technique • AWS (S3, Lambda, RDS, Redshift…) • Snowflake • SQL / modélisation de données • Python • Stack BI (Power BI, SQL Server, SSIS, SSAS…) Profil recherché • Forte expérience en architecture data et transformation cloud • Maîtrise des environnements AWS et Snowflake • Capacité à intervenir sur des sujets complexes et structurants • Vision globale data (flux, modélisation, gouvernance) • À l’aise dans des environnements internationaux Merci de me faire parvenir votre CV à
Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)
SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
330 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois