L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 598 résultats.
Mission freelance
Data / AI Engineer
Publiée le
Databricks
Git
Python
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, Data Scientists, équipes Produit), vous interviendrez sur l’ensemble de la chaîne data & IA , de la construction des pipelines jusqu’à la mise en production et au suivi des modèles. Vos principales responsabilités : Concevoir et développer des pipelines data robustes (batch et streaming) Préparer, transformer et structurer les données pour les cas d’usage IA Entraîner, évaluer et industrialiser des modèles de Machine Learning Mettre en place le monitoring des données et des modèles Garantir la qualité, la traçabilité et la fiabilité des traitements Collaborer étroitement avec les Data Scientists et équipes produit 🛠️ Industrialisation & MLOps Mise en place des bonnes pratiques de versioning et CI/CD Industrialisation des pipelines et des modèles Contribution à la documentation technique Amélioration continue des performances et de la maintenabilité Participation aux phases de déploiement et de stabilisation
Offre d'emploi
Administrateur Bases de Données PostgreSQL / MySQL – Senior (H/F)
Publiée le
Cloud
MariaDB
MySQL
1 an
Ivry-sur-Seine, Île-de-France
Contexte Rattaché à l’équipe Administration des Bases de Données au sein de la DSI, le consultant intégrera une équipe de plus de 10 DBA dédiée à la mise en œuvre et à l’exploitation de projets de grande envergure . La mission porte sur l’ administration opérationnelle en production de bases de données critiques sur PostgreSQL et MySQL , avec une forte composante RUN, projets, automatisation et Cloud . Objectif de la mission Assurer l’ administration, l’exploitation et l’évolution des bases de données PostgreSQL et MySQL en environnement de production, tout en accompagnant les projets d’architecture, de performance, de sécurité et d’automatisation. Missions principales RUN / Exploitation Administration des bases de données PostgreSQL et MySQL . Support N3 / Expertise , en lien avec les équipes de développement et d’exploitation. Suivi du MCO et mise en place des procédures d’exploitation . Gestion des incidents, changements et problématiques de production. Gestion du PRA et de la continuité de service. Supervision, homologation et veille technologique . Projets & Architecture Participation aux projets d’architecture, de déploiement et d’évolution des SGBD. Optimisation des performances et de la configuration des bases. Maîtrise des opérations de patching, upgrades et migrations . Définition et mise en œuvre des stratégies de sauvegarde, restauration, PITR . Mise en place et gestion de la réplication , des clusters et de la haute disponibilité : PostgreSQL (Patroni) MySQL (Group Replication) Gestion du failover et des stratégies de bascule automatique. Automatisation & Cloud Étudier et accompagner le déploiement des SGBD sur des solutions Cloud / opérateurs . Proposer et mettre en œuvre des tâches d’automatisation pour les déploiements et l’administration. Utilisation et maintien des outils d’automatisation : Ansible, Git . Sécurité & Gouvernance Participation aux projets sécurité, audit et gestion des accès . Contribution aux bonnes pratiques de conformité et de sécurité des données. Environnement technique SGBD : PostgreSQL, MySQL, MariaDB Haute disponibilité : Patroni, MySQL Group Replication Automatisation : Ansible, Git Cloud & conteneurs : OpenStack, OpenShift, Docker Systèmes : Linux (RHEL, Ubuntu, CentOS, Oracle Linux, AIX) Sauvegardes : Commvault, Veeam, DataDomain (ou équivalents) Virtualisation : VMware Compétences techniques Impératives : PostgreSQL – Expert MySQL – Expert Importantes : MariaDB – Confirmé Souhaitables : Cloud Automatisation (Ansible, Git) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Offre d'emploi
Coordinateur Data H/F
Publiée le
3 mois
75001, Paris, Île-de-France
Vous êtes actuellement disponible et recherchez une nouvelle mission en Data ? Veuillez trouver ci-dessous une opportunité de Coordinateur Data H/F Lieu : Paris Démarrage: Début Janvier Durée: 3 Mois Type de contrat: Intérim Mission : L'objectif de cette mission de transition est de saisir, valider et maintenir des données précises et fiables. Tâches : * Créer et maintenir les enregistrements des produits, fournisseurs et clients dans les systèmes * Garantir que toutes les données sont précises, complètes et conformes aux normes internes. * Traiter les configurations et modifications des produits conformément * Effectuer des vérifications de données courantes pour identifier et corriger les erreurs. * Signaler les problèmes complexes * Fournir des mises à jour de données aux parties prenantes * Réaliser des rapports et tableaux de bord Compétences: Administration de données dans le secteur industriel Maitrise d'excel et Google Sheets connaissance de systèmes ERP Expérience en gestion de données Bon anglais Pour plus d'informations, merci de m'envoyer votre CV.
Offre d'emploi
Data Engineer – Intégration & Cloud (GCP / BigQuery / Talend)
Publiée le
API REST
BigQuery
Microsoft Power BI
40k-45k €
Paris, France
Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d’intégration et de valorisation de données au sein d’un environnement Cloud moderne. Le consultant interviendra sur la création, l’optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d’autonomie technique. Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL). Mettre en place des traitements d’ingestion, transformation, normalisation et contrôle qualité des données. Développer et optimiser des pipelines dans GCP / BigQuery . Construire et maintenir des jobs Talend pour l’intégration et l’automatisation des traitements. Automatiser et industrialiser les workflows via des scripts Shell / Bash . Contribuer à la création et à l’optimisation de dashboards Power BI (KPI, dataviz). Garantir la qualité, la performance et la conformité des données. Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques. Versionner les développements via GitLab et respecter les bonnes pratiques CI/CD.
Offre d'emploi
ARCHITECTE CLOUD STOCKAGE (NetApp)
Publiée le
Ansible
AWS Cloud
Azure
3 ans
Puteaux, Île-de-France
Nous recherchons pour notre client un architecte cloud stockage pour une mission longue Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud) , en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails. Environnement technique • NetApp: ONTAP 9.x, Cloud Volumes ONTAP, Azure NetApp Files, Amazon FSx for NetApp ONTAP, SnapMirror/SnapVault, SnapCenter, FlexVol/FlexGroup, FlexClone, FabricPool, QoS, SVM-DR, NDMP, NFSv3/v4.1, SMB 3.x, iSCSI/MPIO. • Azure: VNet/ExpressRoute, Cloud Volumes ONTAP, ANF, Managed Disks, Storage Accounts, Key Vault, Azure VMs. • AWS: VPC/Direct Connect, FSx ONTAP, KMS. • Automatisation: Terraform, Ansible (collections NetApp). • Réseau: DNS/AD, LDAP/Kerberos, SMB signing, NFS sec, routage & pare-feu. Compétences requises • 5–8 ans d’expérience en architecture stockage dont ≥3 ans sur NetApp ONTAP (cloud & on-prem). • Maîtrise d’au moins deux environnements parmi Azure, AWS, VMware, et des patterns hybrides. • Pratique avancée des migrations (SnapMirror, XCP) et de la résilience (DRP, tests de bascule). • Solides bases en sécurité (chiffrement, IAM, clés gérées, durcissement) et réseau (NFS/SMB/iSCSI). • Connaissance en Scripting/Infra as Code (Terraform/Ansible) et automatisation d’opérations. Soft skills • Leadership technique, pédagogie, sens du service. • Capacité à formaliser (HLD/LLD, DAT, runbooks) et à défendre des choix d’architecture. • Esprit FinOps: compromis coût/perf/risque, mesure & itération. Certifications appréciées (plus) • NetApp: NCDA, NCIE, NCSA (Cloud). • Azure/AWS: AZ-104/305/700, AWS SAA/SAP. • VMware: VCP-DCV, VCP-CMA. • Sécurité: AZ-500, Security Specialty. Livrables attendus • Dossiers d’architecture (HLD/LLD), matrice RACI, DAT, schémas, plans de migration & de tests DR. • Dossiers d’exploitation (sauvegarde, restauration, PRA/PCA) et rapports de performance.
Offre d'emploi
Expert Python / Innovation & Services Cloud
Publiée le
Architecture
CRM
DevSecOps
1 an
Paris, France
Contexte Dans le cadre d’une transformation digitale d’envergure internationale , la mission s’inscrit au sein d’un groupe leader de l’assurance présent dans plus de 80 pays. L’objectif est de fournir des services IT standardisés à l’ensemble des entités du groupe, en améliorant l’excellence opérationnelle, l’alignement du portefeuille applicatif et l’efficacité des coûts. La mission contribue à l’évolution d’une plateforme SaaS de gestion de contenus (Content Management eXperience – CMX) , conçue comme une solution clé en main, exposant des API REST et une interface web, conforme aux standards du groupe en matière d’ architecture, sécurité, conformité et résilience . L’enjeu principal est d’ enrichir la plateforme par de nouvelles fonctionnalités, des services innovants (notamment basés sur l’IA générative) et d’ accélérer les migrations Cloud . Objectif de la mission Maintenir, faire évoluer et enrichir les outils Python cœur de plateforme , tout en concevant de nouveaux services à forte valeur ajoutée (IA, sémantique, cloud-native), en lien étroit avec les équipes métiers et techniques. Missions principales Développement & évolution des outils cœur Maintenir, auditer, stabiliser et refactoriser les outils Python existants . Garantir un code propre, conforme PEP8 , testé et documenté. Harmoniser et industrialiser de nouveaux modules (ex. traduction de règles métiers en workflows techniques automatisés, stratégies de gestion et d’archivage de fichiers). Innovation & prototypage Concevoir et piloter des sprints d’innovation rapides . Prototyper de nouveaux services basés sur des cas d’usage concrets : IA générative Tagging automatique Recherche sémantique Contrôle qualité des contenus Challenger les besoins métiers et concevoir des proofs of concept (POC) . Évaluer la faisabilité technique et proposer des roadmaps de mise en production . Collaboration & bonnes pratiques Travailler étroitement avec les métiers, product managers et ingénieurs . Réaliser des revues de code et partager les bonnes pratiques (clean code, TDD, CI/CD). Accompagner et mentorer les équipes sur les standards de développement. DevOps & Cloud Contribuer aux pipelines CI/CD . Participer aux déploiements automatisés et à l’ Infrastructure as Code (Terraform, CloudFormation). Environnement technique Langages & développement Python (avancé) Git, Bash Java, JavaScript (React / Vue) Data, IA & sémantique Pandas, regex Parsing JSON / XML Prompt engineering NoSQL (MongoDB, MarkLogic) RDF / SPARQL, graphes Cloud & DevOps AWS (S3, Lambda) CI/CD : Jenkins, GitLab CI Terraform, CloudFormation OpenShift, Kubernetes Artifactory, OpenLDAP Qualité & tests Pytest Frameworks BDD (Behave, Cucumber) Selenium Sécurité & qualité de code : SonarQube, Snyk
Mission freelance
Ingénieur DevOps / Réseau / Azure
Publiée le
Azure
Sécurité informatique
3 mois
400-550 €
Paris, France
Télétravail partiel
Au sein de la DSI, le DevOps / Réseau Azure interviendra sur le système d’information existant , dont l’architecture et l’infrastructure cloud ont été initialement mises en place par des équipes de développement. L’objectif principal de la mission est de réaliser un audit complet , optimiser et sécuriser l’environnement technique afin d’assurer sa stabilité , scalabilité et conformité aux bonnes pratiques Cloud et Réseau . Missions principales 1. Audit et analyse de l’existant Cartographier l’architecture actuelle (réseaux, ressources Azure, CI/CD, supervision, sécurité). Identifier les points de fragilité, de redondance ou de non-conformité. Évaluer la performance, la disponibilité et la sécurité de l’infrastructure. 2. Amélioration et optimisation Reconcevoir ou ajuster l’architecture pour répondre aux standards Azure et aux bonnes pratiques DevOps. Optimiser la performance, la consommation et les coûts (compute, stockage, réseau). Mettre en place des mécanismes de supervision, d’alerte et d’automatisation (IaC, pipelines CI/CD, monitoring). 3. Sécurisation Appliquer les bonnes pratiques de sécurité (Azure Security Center, NSG, firewall, IAM, RBAC, secrets management). Renforcer la gestion des accès, des identités et des permissions. Mettre en place des politiques de sauvegarde, de continuité et de reprise d’activité. 4. Support et accompagnement Former ou sensibiliser les développeurs aux bonnes pratiques DevOps / Cloud. Rédiger la documentation technique et les procédures d’exploitation. Être le référent sur les sujets d’architecture, réseau et sécurité Azure.
Offre d'emploi
Data Architect / Data Engineer (H/F)
Publiée le
Cloud
1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Offre d'emploi
TechLead Kubernetes
Publiée le
AWS Cloud
CI/CD
Kubernetes
6 mois
40k-50k €
400-600 €
Paris, France
Télétravail partiel
En tant que Tech Lead Kubernetes , la mission consiste à assurer l’administration, l’évolution et la fiabilité des plateformes Kubernetes on-premises (Tanzu Kubernetes Grid / VMware Cloud Foundation) et cloud public ( AWS EKS ). Le rôle implique le pilotage des migrations de clusters , l’optimisation de la performance, de la sécurité et de la résilience, ainsi que l’industrialisation des déploiements via des approches Infrastructure as Code (IaC) et GitOps . Le périmètre comprend également la gestion des incidents techniques complexes , la mise en place et l’optimisation des pipelines CI/CD , l’ automatisation des déploiements , la gouvernance des accès (RBAC) et l’accompagnement des équipes dans leur montée en compétences. Des livrables structurés sont attendus : documentation technique , procédures d’exploitation, schémas d’architecture et modules d’automatisation.
Mission freelance
Responsable SysOps- Infra& Cloud(H/F)
Publiée le
Architecture ARM
AWS Cloud
CentOS
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Description du poste Le/la Responsable SysOps encadre et anime une équipe d’une quinzaine de collaborateurs et prestataires, experts des environnements OnPremise, réseau/sécurité et Cloud public (AWS). Rattaché(e) au Responsable de l’entité Plateforme IT, il/elle est garant(e) de la disponibilité, de la performance, de l’évolutivité, de la sécurité et de la maîtrise des coûts des infrastructures. Dans une organisation où la structure hiérarchique est décorrélée de la structure opérationnelle, le rôle nécessite une collaboration transverse forte avec les Product Owners, le Product Manager et le Responsable DevOps, afin de garantir le delivery et l’atteinte des objectifs. L’équipe SysOps couvre trois périmètres pilotés par des Lead Tech : Cloud privé / OnPremise : compute, stockage, virtualisation, OS, datacenter, backup Réseau et sécurité : LAN/WAN, téléphonie, load balancer, firewall Cloud public (AWS) : Landing Zone, gouvernance, services managés L’entité Plateforme IT fournit aux équipes DSI des infrastructures, plateformes et produits “as a service” pour accélérer le delivery, renforcer le DevOps et accroître l’autonomie des équipes métiers. Missions1. Encadrer et animer l’équipe Organiser et gérer la charge de l’équipe en fonction des besoins opérationnels. Assurer le delivery, la performance et l’atteinte des objectifs. Développer les niveaux de compétence et les recouvrements (polyvalence). Uniformiser et harmoniser les pratiques entre cloud privé, cloud public et réseau. Décliner la vision stratégique de l’entité et de la DSI. Favoriser la collaboration, la confiance et l’engagement. Organiser et animer les points réguliers avec les Leads Tech et l’équipe. 2. Suivre et accompagner les collaborateurs Participer aux recrutements (internes et externes). Assurer le suivi RH quotidien : congés, administratif, intégration. Définir et suivre les plans de formation et de développement. Veiller au respect du cadre organisationnel et opérationnel. Mener les entretiens annuels et de suivi. 3. Gérer la relation avec les ESN Assurer le pilotage commercial et contractuel. Gérer la rotation des prestataires et l’adéquation aux besoins. Participer aux processus de sélection et aux entretiens. 4. Piloter KPIs, SLAs et reporting Définir et suivre les KPIs en lien avec les objectifs de la DSI. Mettre en place un reporting clair, régulier et transverse. Suivre les SLAs, la qualité de service et la satisfaction interne. 5. Gérer le budget et les ressources Construire et suivre le budget de l’équipe (OPEX/CAPEX). S’assurer du respect des consommations (jours, prestations, ressources). Gérer les demandes d’achat et les relations fournisseurs. Suivre les imputations projets et activités. Compétences techniques requises Très bonnes connaissances des infrastructures OnPremise : compute, stockage, virtualisation, OS, datacenter, backup. Bonne maîtrise des environnements Cloud Public, idéalement AWS (landing zone, architecture, sécurité, services managés). Compréhension globale des infrastructures réseaux et sécurité (LAN/WAN, load balancing, firewalls, téléphonie). Compétences transverses et comportementales Expérience avérée d’encadrement d’équipes techniques internes et externes. Excellentes compétences de leadership agile , basées sur la confiance, l’autonomie et la collaboration. Capacité à motiver , fédérer et instaurer un climat de travail positif. Excellente communication interne et externe. Capacité à gérer et recadrer de manière factuelle et constructive. Capacité à gérer des situations de tension ou de conflit. Sens aigu de l’organisation et du respect du cadre de travail. Vision orientée amélioration continue et montée en compétence des équipes. Bonne connaissance du cadre légal du travail et des bonnes pratiques RH. Maîtrise du pilotage budgétaire. Formation Bac +5 : école d’ingénieur ou université (informatique, systèmes, réseaux). Formation ou certification en management appréciée. Expérience 8 à 10 ans d’expérience dans le management d’équipes techniques infrastructures et cloud. Solide expérience technique en production, exploitation et architecture. Expérience confirmée dans un contexte agile à l’échelle (SAFe apprécié).
Offre d'emploi
Data engineer (H/F)
Publiée le
35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Mission freelance
POT8751 - Un Architecte DATABRICKS sur Laval
Publiée le
Azure
6 mois
100-550 €
Laval, Pays de la Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Architecte DATABRICKS sur Laval. Contexte : Notre souhaite faire évoluer son architecture de traitement de données en supprimant l’usage d’Azure Data Factory, jugé désormais inadapté à ses attentes. L’architecture actuelle repose sur un modèle en médaillon, qui ne répond plus aux exigences opérationnelles et stratégiques. Objectifs : - Assurer la maintenance des environnements Databricks existants. - Concevoir et développer des flux de données entre les applications métiers et la plateforme Databricks. - Accompagner la transition vers une architecture cible plus moderne et performante, sans Azure Data Factory Profil recherché : - Consultant autonome sur Databricks, capable de prendre en main rapidement des environnements complexes. - Bonne compréhension des architectures data, notamment dans des contextes cloud Azure. - Esprit structuré, capacité à proposer des solutions pertinentes et à collaborer efficacement avec les équipes internes. - Autonomie, rigueur, et sens du service client.
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Architecte Technique Data Expert Technique - Architecture Data & Cloud (H/F)
Publiée le
Gitlab
18 mois
40k-45k €
110-600 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Cloud, Infrastructure & Cloud, Devops, Gouvernance des données, IAM Compétences Technologies et Outils AWS CI/CD Spark Terraform Python Docker Kinesis Amazon Kubernetes Gitlab Description et livrables de la prestation Le poste d'Architecte Technique Data Expert Technique, également de niveau Expérimenté ou Sénior, a pour mission d'assurer la validité technique et l'alignement des architectures Data avec les standards définis dans le cadre du Programme Vision 2035. En tant que référent technique, vous interviendrez en amont au sein des équipes CAPVISION (méthodologies Capvision, Découverte, Zoom) pour définir les architectures cibles et garantir leur cohérence au sein de l'écosystème SI existant. Vos responsabilités englobent la définition des architectures Cloud (performance, résilience), la mise en œuvre de la gouvernance des données (Dataviz, Datamesh), et la sécurisation des données. Compétences et Technologies (Focus Technique) : Ce rôle requiert une expertise en architecture Data et Cloud (Niveau 4). La maîtrise des outils de gouvernance de la donnée tels que Dataviz et Datamesh est primordiale (Niveau 4). Une expertise est demandée sur la gestion de la sécurité du SI, notamment la gestion des accès (IAM) et les mécanismes de protection des données (Niveau 4). De solides connaissances en intégration et déploiement continus (CI/CD) sont requises (Niveau 4). Techniquement, vous utiliserez Python et Spark. Les services Cloud spécifiques comprennent AWS IAM, Amazon Kinesis, AWS Lake Formation, AWS S3, ainsi que les outils d'industrialisation AWS, Gitlab CI, Docker, Kubernetes et Terraform. Expertise souhaitée Architecte Technique Data Expert Technique
Mission freelance
Intermediate Data Engineer
Publiée le
API
AWS Cloud
Big Data
12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Offre d'emploi
ingénieur système
Publiée le
Ansible
Cloud
Elasticsearch
12 mois
40k-61k €
400-610 €
Paris, France
Réaliser l’ingénierie autour des services managés de notre infrastructure (récolte du besoin, création, automatisation) Architecturer et opérer une infrastructure SI avec du SDN, OpenStack, Ceph et Firewall Monitorer et s’assurer du bon fonctionnement de l’infrastructure Assurer le maintien en condition opérationnelle de l’infrastructure, aussi bien matériellement que logiciellement Participer à l’effort des réponses d’incidents et de retours d’expérience Nous avons en particulier comme projet à court terme : Migration de notre Système d’Information historique sur notre Cloud Privé Openstack Création, automatisation et maintien des services managés internes (PostgreSQL as a Service, Elasticsearch as a Service, RabbitMQ, Redis, …) Transformation de nos systèmes de monitoring vers de nouvelles solutions (de Munin à Prometheus en cluster) Voir moins Profil recherché Ces missions nécessitent de savoir travailler en équipe, d’apprécier la résolution de problématiques complexes, ainsi que des connaissances basiques en réseau au sein de l’univers des télécoms. Vous évoluerez sur les technologies suivantes : Linux, OpenStack, Docker, Ceph, Ansible, Terraform, Consul, Packer, Nomad, Gitlab (+CI), Prometheus. Compétences nécessaires : Cloud (Privé ou public : AWS, GCP, Azure, OVH) Compréhension du fonctionnement des services managés (PostgreSQL, Elasticsearch, Redis, RabbitMQ,…) Infra as Code : Terraform Ansible (configuration management) Grafana / Prometheus pour l’observabilité Vous possédez idéalement des notions sur : conteneurs type Docker, Intégration continue (CI) /Déploiement continu (CD) et de service discovery. Un bon niveau d’Anglais technique est nécessaire pour appréhender l’environnement technique, échanger efficacement avec nos fournisseurs et collègues et répondre à nos clients internationaux.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
3598 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois