L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 938 résultats.
Offre d'emploi
DATA Engineer Senior GCP-python
Publiée le
Gitlab
18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Offre d'emploi
Ingénieur Systèmes
Publiée le
Ansible
Bash
Docker
40k-51k €
Lille, Hauts-de-France
Télétravail partiel
🚀 Pixie Services recrute un Ingénieur Système dynamique et innovant ! 🚀 Contribuez à l'évolution technologique de notre entreprise basée dans la vibrant métropole lilloise. À propos de : Pixie Services, leader dans le secteur des solutions numériques, se distingue par son engagement envers l'innovation et la qualité. Située au cœur de la métropole lilloise , notre entreprise vise à transformer les défis technologiques en succès palpables, grâce à une équipe passionnée et dédiée. 🌟 Ce que nous offrons : Une chance de travailler sur des systèmes à la pointe de la technologie et de participer activement à des projets innovants. Un environnement de travail collaboratif, où le partage de connaissances et le développement professionnel sont encouragés. Un poste basé dans la métropole lilloise , au sein d'une entreprise reconnue pour son dynamisme et son innovation. 🔍 Missions pour l'Ingénieur Système : Gestion des systèmes : Administrer, configurer et optimiser les systèmes pour garantir performance et sécurité. Automatisation et scripts : Développer des scripts pour automatiser la gestion des systèmes et réduire les interventions manuelles. Surveillance et résolution de problèmes : Surveiller les systèmes pour détecter et résoudre rapidement les problèmes. Mises à jour et maintenance : Planifier et exécuter les mises à jour nécessaires pour assurer la sécurité et l'efficacité des systèmes. Support technique : Fournir un support technique de haut niveau aux équipes internes et contribuer à l'amélioration continue des processus IT.
Offre d'emploi
Experts AWS (Plusieurs postes)
Publiée le
Ansible
Architecture
AWS Cloud
12 mois
40k-65k €
500-650 €
Seine-et-Marne, France
Télétravail partiel
Experts AWS – Build, Run, Migration & Sécurité Dans le cadre d’un vaste programme de transformation Cloud, nous recherchons plusieurs Experts AWS pour intervenir sur des missions stratégiques de Build, Migration, Run, Supervision, Bases de données et Sécurité au sein d’environnements critiques et fortement industrialisés. Les consultants interviendront au cœur de la Cloud Platform Team et des équipes de production pour concevoir, automatiser, sécuriser et opérer les assets déployés sur AWS. 📍 Localisation : Villaroche (déplacements ponctuels) 🏠 Télétravail : possible 📅 Démarrage : 01/12/2025 ⏳ Durée : 6 mois renouvelables 🌍 Anglais courant requis 🔎 Profils recherchés Nous recherchons des experts AWS confirmés (4+ ans d’expérience) dans les domaines suivants : 1. Expert Outillage & Automatisation AWS Industrialisation des déploiements et du RUN AWS Terraform / CloudFormation / Ansible Pipelines GitLab CI/CD Automatisation Ops / OS Factory Maîtrise AWS MGN, AWS Systems Manager, Service Catalog 2. Expert Supervision & Observabilité AWS Mise en place et optimisation de CloudWatch, Dynatrace, Centreon Centralisation et analyse (ELK Stack) Définition des KPI, dashboards, alerting Automatisation de la remédiation 3. DevOps AWS Pipelines CI/CD sécurisés Déploiements automatisés (Terraform, Ansible) Haute disponibilité, scalabilité, tests intégrés Participation à la Migration Factory et à l’usine à AMI 4. SysOps AWS Exploitation et MCO d’infrastructures AWS Gestion incidents, PRA, sauvegardes, optimisation coûts/perf Monitoring & alerting (CloudWatch, Dynatrace, Centreon) Automatisation via SSM, Lambda, Terraform 5. Expert Bases de Données AWS RDS, Aurora, DynamoDB, Redshift Optimisation performance, sécurité, haute disponibilité Migrations on-prem → AWS CI/CD bases de données, Terraform, SSM 6. SecOps AWS Implémentation IAM, GuardDuty, Security Hub, Macie, WAF CSPM Prisma Cloud (Palo Alto) Analyse et traitement d’incidents sécurité Compliance : ISO 27001, CIS Benchmark, RGPD Intégration sécurité dans CI/CD et pratiques DevSecOps
Offre d'emploi
Ingénieur validation et vérification électronique
Publiée le
40k-45k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Nous recherchons un ingénieur H/F expérimenté qui interviendra sur la définition, l'exécution et le suivi de la stratégie de validation et de vérification (V&V). L'objectif est d'assurer une couverture de test complète, allant des tests unitaires sur composants jusqu'aux tests d'intégration du système global.Vos Responsabilités : - Définir la stratégie de test globale, incluant les tests unitaires, fonctionnels et d'intégration ; - Élaborer le V&V Plan et identifier les ressources ou moyens d'essais nécessaires ; - Organiser et exécuter les tests sur trois sous-systèmes indépendants, puis piloter les tests d'intégration globale; - Assurer le suivi des validations et la traçabilité documentaire (rapports d'essais, fiches de validation, avancement) ; - Rédiger les plans de tests, préparer les campagnes, compiler et analyser les résultats ; - Travailler en collaboration avec les équipes électroniques, logicielles et système.
Offre d'emploi
Lead Devops / Scrum Master
Publiée le
Python
Shell
1 an
40k-45k €
400-630 €
Île-de-France, France
Télétravail partiel
Lead DevOps / Scrum MasterDescription de l'entreprise Une filiale d'un grand groupe bancaire, au cœur de la transformation technologique du Groupe. Notre mission est de concevoir, développer et opérer des plateformes d'infrastructure modernes (PaaS, IaaS, CaaS) pour l'ensemble de nos métiers. Descriptif du poste Nous cherchons un lead DevOps pour renforcer la squad SQL et assurer le rôle de Scrum Master de la squad. Ce rôle n'est pas fait pour tout le monde. Il demande une combinaison de plusieurs qualités : excellence technique, posture d'accompagnement, et plaisir à coder pour les autres. Profil recherchéCompétences Techniques Indispensables Le socle non négociable. Nous attendons une maîtrise solide ou un niveau expert sur ces sujets. Expertise approfondie et pratique de Python Excellente maîtrise de Pytest et de son écosystème Solide expérience en automatisation de tests d'API REST Maîtrise de Git et des pipelines CI/CD, notamment GitLab CI Maîtrise des commandes de base Linux et du scripting shell Maîtrise des pratiques BDD (Gherkin) Compréhension des principes d'ingénierie logicielle (DRY, Abstraction, Idempotence)
Offre d'emploi
Responsable / Référent Qualité en Production
Publiée le
38k-45k €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un(e) Responsable / Référent Qualité pour renforcer notre équipe et garantir l’excellence de nos processus de production. Vous jouerez un rôle essentiel dans la conformité des produits, la gestion documentaire, le pilotage qualité en atelier et l’amélioration continue. Missions principales Veiller à la conformité des produits et à la complétude des dossiers de traçabilité . Animer, mesurer et piloter la maturité qualité au sein de l’atelier. Garantir le respect des standards sur la ligne de production. Assurer la veille documentaire nécessaire à chaque livraison dans les délais impartis. S’assurer de la réalisation de toutes les phases de contrôle conformément au plan de contrôle. Constituer et approuver les dossiers de libération produits , ainsi qu’assurer leur archivage. Gérer le suivi administratif des pièces entrantes et sortantes à l’assemblage. Traiter les réclamations clients et les levées de doute avec le niveau de priorité adéquat ; déclencher les actions correctives et curatives nécessaires. Assurer la caractérisation, le suivi et la communication autour des demandes de dérogations. Participer aux réunions de ligne et assurer la communication des informations qualité vers la production et la hiérarchie. Veiller au bon suivi des éprouvettes série du secteur. Déployer et stimuler la démarche Idées terrain , proposer et piloter les améliorations de la ligne. Rédiger et délivrer les documents nécessaires lors des expéditions , garantir la disponibilité des gammes de parachèvement. Suivre les encours livrables et le statut des dérogations associées. Assurer le suivi des dérogations et des opérations de parachèvement sur les pièces livrées. Maintenir à jour les dossiers administratifs . Contribuer à la structuration et à l’amélioration continue des processus. Réaliser des revues périodiques des actions correctives avec indicateurs de suivi. Mesurer et challenger le taux de clôture des actions curatives avant livraison. Mesurer et challenger le taux de clôture des actions correctives dans les délais définis. Fournir les documents nécessaires avant expédition. Assurer le suivi des livraisons à 15 jours .
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Télétravail partiel
● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery (Oracle est un plus) ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Exploration et extraction des données : rédaction et optimisation de requêtes SQL complexes, automatisation des traitements analytiques pour des performances accrues. ● Création et optimisation de dashboards interactifs sous Looker Studio, avec une capacité à identifier et suivre des KPIs critiques pour le pilotage métier. ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement. ● Esprit d’analyse et appétence pour le fonctionnel, capacité à appréhender rapidement des logiques métier complexes
Offre d'emploi
Ingénieur infra. Axway (CFT + XFB Gateway & Secure Transport)
Publiée le
Axway
Infrastructure
Middleware
3 ans
Paris, France
Télétravail partiel
Bonjour à tous, Je recherche un consultant pour une mission longue de 3 ans à Paris (confirmé par le client). Si vous êtes en CDI actuellement et que vous souhaitez passer freelance c'est l'occasion ! Le client peut attendre que vous fassiez votre préavis de 3 mois, il pourra vous en parler directement lors d'un entretien en visio. L'idéal pour un démarrage étant ASAP. Télétravail : 2/3 jours par semaine. Si vous résidez loin de Paris, n'hésitez pas à postuler tout de même pour que l'on en discute. Le client recherche un Ingénieur infrastructure qui maitrise les produits Axway : CFT + XFB Gateway Secure Transport N'hésitez pas à postuler pour que l'on en discute. A bientôt,
Mission freelance
Ingénieur(e) IA / ML Ops senior
Publiée le
.NET Framework
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Versionning, Gestion de configuration ML, Monitoring, RGPD, Automatisation des test Compétences Technologies et Outils GitHub CI/CD GIT MISSIONS En tant qu’ingénieur(e) IA / ML Ops senior, vos principales missions sont de : - Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. - Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. - Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. - Contribuer à la modélisation de votre portefeuille de cas d’usage : - S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. - Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. - Challenger les approches proposées par les Data Scientists. - Piloter l’industrialisation et le déploiement des modèles IA - Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles - Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. - Construire et implémenter les pipelines, CI/CD, monitoring. - S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). - Garantir la qualité et la conformité - Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot - Auditer et valider les modèles / cas d’usage développés. - Garantir la qualité et la conformité des livrables avant mise en production. - Etablir la traçabilité : documentation, métadonnées, suivi des performances. - Être le point de contact technique privilégié pour les instances de validation. - Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. - Organiser la montée en compétence progressive et objectivée des juniors. - Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. - Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. - Usage Interne / Internal Use - Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
Offre d'emploi
Ingénieur Intégration Logiciel embarqué F/H
Publiée le
C/C++
6 mois
40k-45k €
350-400 €
Bonneuil-sur-Marne, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de notre équipe spécialisée dans les dispositifs médicaux à haute valeur technologique, nous recherchons un·e Ingénieur·e Intégration Logiciel Embarqué. Vous interviendrez au cœur de systèmes optiques complexes, où la qualité, la fiabilité et la sécurité logicielle sont essentielles. En tant qu’ingénieur·e intégration, vous jouez un rôle clé dans l’assemblage et la validation des briques logicielles embarquées. Vos missions incluent : - Intégrer, assembler et valider les composants logiciels embarqués au sein de nos systèmes optiques. - Collaborer étroitement avec les équipes de développement pour garantir une intégration fluide, robuste et conforme aux exigences. - Gérer la configuration et le versionnage du code source via GIT ou tout autre outil équivalent. - Réaliser les tests d’intégration et de validation pour assurer la qualité, la stabilité et la conformité des logiciels embarqués. - Contribuer à l’amélioration continue des pratiques d’intégration, de tests et de déploiement. - Participer aux revues de code et proposer des optimisations fonctionnelles ou structurelles.
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Offre d'emploi
Ingénieur système fonctionnel (F/H)
Publiée le
24k-25k €
Toulon, Provence-Alpes-Côte d'Azur
Ingénieur système fonctionnel (F/H) - Toulon Nous recherchons un Ingénieur Systèmes et IVVQ habilitable SECRET. Le poste s'adresse à des personnes ayant une forte appétence pour les systèmes complexes dans le domaine de la défense. Missions Intervenir sur des systèmes complexes à logiciel prépondérant dans un environnement défense. Contribuer aux activités d'ingénierie amont : analyse fonctionnelle, rédaction des spécifications systèmes, gestion des exigences, conception et modélisation de chaînes fonctionnelles, définition d'IHM et participation à l'élaboration des architectures fonctionnelles. Produire les documents d'ingénierie amont : documents d'interfaces, spécifications systèmes, schémas électriques. Piloter la traçabilité des exigences (SSS, SRS) et maintenir la cohérence globale du référentiel. Encadrer et suivre les fournisseurs : avancement, qualité technique, cohérence des livrables. Définir la stratégie de couverture des exigences et de vérification. Analyser les exigences, élaborer ou affiner les stratégies de tests en cohérence avec l'architecture système. Préparer et rédiger les plans de tests, concevoir les scripts associés. Réaliser les tests fonctionnels sur plateformes systèmes et contribuer aux activités d'IVVQ. Analyser et formaliser les résultats de tests, remonter les écarts, suivre leur résolution et participer à l'acceptation du système par le client. Assurer l'interface opérationnelle avec les équipes projet et les différents métiers techniques.
Mission freelance
Ingénieur Qualité Fournisseur F/H
Publiée le
Plan d'Assurance Qualité (PAQ)
12 mois
Fécamp, Normandie
📑 Freelance / Portage Salarial -📍 Fécamp (76) – 🚀 Démarrage dès que possible – 🎯 Mission de 12 mois minimum Dans le cadre de notre croissance, nous recrutons un·e Chargé·e Qualité Fournisseur pour accompagner l’un de nos clients majeurs du secteur Aéronautique . Vous jouerez un rôle central dans la maîtrise de la qualité des baies, coffrets et systèmes électroniques, en veillant au respect des exigences industrielles et des normes, notamment IPC 620 . Vos fonctions seront : Gestion et suivi qualité des prestataires externes - Piloter les non-conformités fournisseurs (animation des commissions NC et communication auprès des prestataires). - Mener les audits externes et évaluer la performance qualité des partenaires. - Définir, suivre et challenger les plans d’actions issus des NC, audits ou évaluations. - Contribuer à la fiabilisation des indicateurs OQD & OTD. Référencement et conformité fournisseurs - Participer au processus de référencement des prestataires externes. - Garantir l’application du processus Qualité Fournisseur (QF) et des exigences associées. - Accompagner, si besoin, d’autres activités relevant de l’Assurance Qualité Fournisseurs.
Mission freelance
INGENIEUR SUPPORT APPLICATIFS METIER LOGISTIQUE
Publiée le
Logistique
24 mois
200-400 €
Paris, France
Télétravail partiel
Contexte Pour l'un de nos client grand compte nous recherchons un(e) ingénieur support applicatifs métier ayant de l'expérience dans le secteur de la logistique. Description Au sein du service informatique, vous participez au paramétrage, à la maintenance et à l'évolution de l'ensemble des applications métiers dont vous êtes un(e) des référent(e)s techniques. Pour cela, différentes missions vous sont dévolues : Veiller au bon fonctionnement des différents applications du SI (Paramétrage - Interface...), Accompagner et former les utilisateurs, Suivre et tester les différentes évolutions avant leur mise en production, Participer au suivi et au démarrage de nouvelles applications Etablir des procédures et des modes opératoires Analyser les anomalies afin de déterminer l'application en défaut, Alerter et faire intervenir les experts de niveau supérieur (internes et/ou externes), Communiquer auprès des utilisateurs sur les délais de résolution / correction, Gérer et suivre des incidents. Vos interlocuteurs seront l'ensemble des services utilisateurs du SI, les équipes techniques ainsi que l'ensemble de nos éditeurs de logiciel. Livrables Horaires : Equipe matin ou après-midi ou journée - Lundi au Samedi - Astreintes possibles Déplacements sur tous les sites opérationnels et au Siège social.
Mission freelance
Architecte Data
Publiée le
Architecture
Azure
4 mois
650-680 €
Rennes, Bretagne
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Architecte Data(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de l'industrie. Description 🎯 Contexte de la mission Dans le cadre d’un projet stratégique à forte visibilité, une nouvelle Data Platform doit être conçue sur une infrastructure Kubernetes récemment livrée. 🧩 Missions principales & Rôle Le Data Architecte interviendra sur les activités suivantes : 🏗️ Définition de l’architecture cible de la Data Platform 🗂️ Segmentation et ségrégation des stockages (temps réel, analytique, applicatif) 🐳 Déploiement et orchestration de conteneurs dans un environnement Kubernetes 🔒 Mise en place du socle Data incluant : sécurité, qualité, monitoring, CI/CD Data 🧪 Accompagnement sur les choix technologiques , avec priorité aux solutions open source 🤝 Co-construction avec les équipes métiers , utilisateurs d’outils no-code / low-code 🔍 Participation à la définition des patterns d’architecture et bonnes pratiques 🎯 Objectifs de la mission Mettre en place une architecture Data scalable et sécurisée Assurer la cohérence technologique entre l’infra Kubernetes, les composants Data et les besoins métiers Définir les patterns, standards et bonnes pratiques de la future plateforme Préparer l’intégration des premiers pipelines et cas d’usage métiers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1938 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois