L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 242 résultats.
Mission freelance
Expert CyberSécurité Cloud & GenAI
Publiée le
Azure Active Directory
Microsoft Fabric
Python
1 an
550-600 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Sécurité et Architecture, vous interviendrez comme expert sécurité sur des plateformes Cloud, Data et GenAI , avec une forte dimension gouvernance et conseil. Vos principales responsabilités : Concevoir et déployer des contrôles de sécurité sur Azure et M365 Sécuriser les tenants Azure , souscriptions et identités Implémenter des pratiques DevSecOps Réaliser des analyses de risques liées aux usages IA et LLM Auditer les architectures et formuler des recommandations sécurité Participer aux revues de code et à l’assistance sécurité des équipes 🛠️ Gouvernance & DevSecOps Définition de blueprints sécurité Mise en conformité des environnements Cloud & IA Automatisation des contrôles et supervision sécurité
Mission freelance
POT8751 - Un Architecte DATABRICKS sur Laval
Publiée le
Azure
6 mois
100-550 €
Laval, Pays de la Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Architecte DATABRICKS sur Laval. Contexte : Notre souhaite faire évoluer son architecture de traitement de données en supprimant l’usage d’Azure Data Factory, jugé désormais inadapté à ses attentes. L’architecture actuelle repose sur un modèle en médaillon, qui ne répond plus aux exigences opérationnelles et stratégiques. Objectifs : - Assurer la maintenance des environnements Databricks existants. - Concevoir et développer des flux de données entre les applications métiers et la plateforme Databricks. - Accompagner la transition vers une architecture cible plus moderne et performante, sans Azure Data Factory Profil recherché : - Consultant autonome sur Databricks, capable de prendre en main rapidement des environnements complexes. - Bonne compréhension des architectures data, notamment dans des contextes cloud Azure. - Esprit structuré, capacité à proposer des solutions pertinentes et à collaborer efficacement avec les équipes internes. - Autonomie, rigueur, et sens du service client.
Offre d'emploi
Data Architecte Databricks
Publiée le
Databricks
65k-80k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Architecte Databricks
Publiée le
Databricks
65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Ingénieur DevOps / Data Platform (Kubernetes – GitLab – Vault)
Publiée le
Azure Kubernetes Service (AKS)
CI/CD
3 ans
Île-de-France, France
Contexte Nous recherchons un Ingénieur DevOps / Data Platform pour accompagner notre client dans le cadre du service de Data Architecture Doc Factory . L’objectif est de fournir et de maintenir l’outillage facilitant l’intégration des solutions Data du Groupe, de définir des standards d’intégration, et d’accompagner les équipes projet dans leurs usages. 🎯 Missions Vous intervenez au sein de la Data Factory et êtes responsable de : Maintenance & Exploitation Assurer le MCO des outils d’intégration (CodeHub, Vault, Consul, GitLab CI, ArgoCD, Kubernetes). Suivre la stabilité, la performance et la sécurité des environnements. Industrialisation & Automatisation Améliorer l’industrialisation des outils et pipelines CI/CD. Automatiser les déploiements, renforcer la standardisation via des templates. Migration OpenShift & Sécurité Participer au projet de migration vers OpenShift BNP Paribas. Sécuriser les environnements (RBAC, secrets, policies, durcissement). Standardisation & Templates Maintenir et enrichir les modèles d’intégration (pipelines, charts Helm, manifests K8s). Garantir leur conformité aux standards Data & sécurité du Groupe. Accompagnement & Support Accompagner les équipes Data dans le design et l’intégration de leurs solutions. Former et conseiller sur les bonnes pratiques DevOps/DataOps. Monitoring & Observabilité Contribuer à l’amélioration du monitoring (Dynatrace, alerting, dashboards). Suivre la fiabilité et la performance des solutions intégrées. Innovation Tester de nouvelles technologies et proposer des améliorations pour enrichir l’offre de service. Participer aux études d’architecture et PoC Data Platform.
Mission freelance
Tech Lead DATABRICKS (Lyon)
Publiée le
Azure Data Factory
Java
1 an
500-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Mission freelance
Senior Data Scientist
Publiée le
ADFS
Analyse financière
Azure
6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Mission freelance
LLMOPS (infra)
Publiée le
Azure
Databricks
DevOps
12 mois
400-550 €
Paris, France
Télétravail partiel
Il ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste. Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM. Architecture & Stratégie LLMOps Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM. Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant. Déploiement & Exploitation des modèles Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés. Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence). Mettre en place des pipelines de mise à jour, de versioning et de rollback. Observabilité & Performance Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence). Garantir des performances stables et optimiser en continu l’inférence et les workflows associés. Sécurité, conformité & gouvernance Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints. Veiller à la conformité (RGPD, confidentialité, accès, auditabilité). Définir les règles de gouvernance modèle/données pour un usage maîtrisé. Support & Acculturation interne Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines). Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations). Accompagner les projets métiers exploitant l’IA générative. Compétences techniques Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité. Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence. Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises. Connaissances avancées en sécurité cloud & data, gestion des accès, compliance. À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU
Offre d'emploi
Ingénieur DevOps - 12 mois - Lille
Publiée le
Ansible
Azure
CI/CD
12 mois
Lille, Hauts-de-France
Télétravail partiel
Ingénieur DevOps - 12 mois - Lille Un de nos importants clients recherche un Ingénieur DevOps pour une mission de 12 mois sur Lille. Descriptif de la mission ci-dessous: Notre client recherche un DevOps pour assurer le déploiement, la configuration et l’exploitation de ses environnements techniques (VM, conteneurs, services applicatifs) et garantir leur stabilité au quotidien. Il interviendra en support des projets Data/IA et en complémentarité de l’équipe plateforme IT. L'ingénieur: utilise la plateforme pour déployer vos VM et conteneurs adapte les environnements à vos besoins administre vos services au quotidien fait le support, l’exploitation, la supervision assure le lien avec les développeurs / projets Compétences recherchées: Infrastructure en tant que code Terraform et Ansible - Avancé Microsoft Azure - Confirmé Gitlab CI/CD - Confirmé Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Offre d'emploi
Lead développeur Java - Cloud AWS (H/F)
Publiée le
Apigee
AWS Cloud
Azure
7 jours
36k-48k €
350-450 €
Saint-Herblain, Pays de la Loire
Télétravail partiel
Contexte de la mission La mission consiste à rejoindre et renforcer l’équipe DATA/API/IOT en tant que lead développeur-Lead Technique. L’équipe est constituée de 2 équipes distinctes, une première qui traite les sujets API (AWS/Apigee) et IOT (AZURE/IOT HUB) et une seconde qui traite les sujets Data (AWS/SQL Server). Nous fonctionnons en mode Agile. Objectifs et livrables L’activité sera : De concevoir, développer et documenter des API pour les chaînes de valeur de la DSI qui n’ont pas la capacité à le faire ou bien de les accompagner dans la réalisation de ces API. De traiter les sujets de MCO et de cybersécurité pour nos socles AWS et AZURE. Apporter votre aide sur divers sujets techniques en fonction des besoins des équipes. Réaliser votre activité en relation avec les architectes, référent cyber et référent AWS/AZURE. Réaliser la conception technique de la migration technique de notre API Management.
Offre d'emploi
Chef de projet Data H/F
Publiée le
Azure Synapse
Microsoft Power BI
Pilotage
1 an
45k-58k €
400-450 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Suite à une restructuration interne chez notre client dans le secteur de l'immobilier, nous recherchons un(e) Chef(fe) de projet Data à Bordeaux Missions Recenser et analyser les besoins métiers. Lire et comprendre les cahiers d’analyse. Participer aux COPROJ / COPIL. Suivre la RDD, les recettes, le run et les tickets JIRA. Rédiger les process et modes opératoires. Suivi des plannings et risques projets Environnement technique Microsoft Azure Azure Synapse Analytics Microsoft SQL Server Microsoft Power BI Démarrage : ASAP – Recherche quelqu’un pour démarrage de mission en cette fin d’année
Mission freelance
Data Architecte (Secteur Energie / Industrie)
Publiée le
Apache Airflow
Apache Spark
Architecture
12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Mission freelance
Data Engineer
Publiée le
Big Data
IA
Java
3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
Offre d'emploi
Administrateur Infra & Cloud H/F/X - Rennes
Publiée le
Administration linux
Administration Windows
Azure
1 an
Rennes, Bretagne
Télétravail partiel
Description du poste Au sein d'Helpline, l'entreprise propose une offre d hébergement Cloud pour ses clients dirigée par une équipe dédiée à celle-ci. Afin d accompagner sa croissance, nous recherchons un profil administrateur système confirmé. Sous la responsabilité du Directeur Technique, vous intervenez sur les missions suivantes : Participer à la définition des architectures techniques de la plateforme ; Participer et assurer le MCO de la plateforme ; Assurer la gestion de la sécurité des environnements : virale, réseau, data, service ; Être acteur des projets d évolutions / MCO ; Superviser les SI ; Apporter une expertise technique sur les environnements : réseau, virtualisation, systèmes, stockages ; Rédiger et créer des documentations : dossier technique, base de connaissance, FAQ.
Offre d'emploi
Administrateur Infra & Cloud H/F/X - Nantes
Publiée le
Administration linux
Administration Windows
Azure
1 an
Nantes, Pays de la Loire
Télétravail partiel
Description du poste Au sein d'Helpline, l'entreprise propose une offre d hébergement Cloud pour ses clients dirigée par une équipe dédiée à celle-ci. Afin d accompagner sa croissance, nous recherchons un profil administrateur système confirmé. Sous la responsabilité du Directeur Technique, vous intervenez sur les missions suivantes : Participer à la définition des architectures techniques de la plateforme ; Participer et assurer le MCO de la plateforme ; Assurer la gestion de la sécurité des environnements : virale, réseau, data, service ; Être acteur des projets d évolutions / MCO ; Superviser les SI ; Apporter une expertise technique sur les environnements : réseau, virtualisation, systèmes, stockages ; Rédiger et créer des documentations : dossier technique, base de connaissance, FAQ.
Mission freelance
Data Engineering Manager (Bordeaux)
Publiée le
AWS Cloud
6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
242 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois