Trouvez votre prochaine offre d’emploi ou de mission freelance Web service

Votre recherche renvoie 491 résultats.
CDD
CDI
Freelance

Offre d'emploi
Ingénieur DevSecOps Cloud AWS- KBS

KEONI CONSULTING
Publiée le
AWS Cloud
Cloud
Grafana

18 mois
20k-60k €
100-500 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Ingénieur DevSecOps Cloud AWS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’Ingénieur DevSecOps est Responsable de l'industrialisation des pipelines de livraison et de l'intégration des pratiques de sécurité tout au long du cycle de développement et de déploiement sur infrastructure AWS. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation EXPERTISE & Compétences clés attendues : · Maîtrise des outils CI/CD (GitLab CI, GitHub Actions, ArgoCD) · Infrastructure as Code avec Terraform et gestion des modules réutilisables · Orchestration de conteneurs Kubernetes (EKS) : nodes, autoscaling, namespaces, ingress · Sécurité applicative intégrée : scan de vulnérabilités (Trivy, Snyk), SAST/DAST · Gestion et gouvernance des images Docker (registry, policy, scan) · Implémentation des principes Zero Trust, IAM Roles et RBAC Kubernetes · Gestion des secrets et rotation de clés (AWS Secrets Manager, KMS) · Monitoring et observabilité (CloudWatch, Prometheus, Grafana, OpenTelemetry) · Conformité réglementaire : RGPD, CNIL, Cloud Act · Rédaction de runbooks d'exploitation et documentation des procédures CI/CD
Freelance
CDI

Offre d'emploi
Consultant Data Engineer Informatica

VISIAN
Publiée le
AWS Cloud
Informatica

1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Freelance
CDI

Offre d'emploi
OPS sénior - Cloud AWS / DevOps

VISIAN
Publiée le
AWS Cloud
Red Hat

1 an
Lille, Hauts-de-France
Contexte Suite à une augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète pour accueillir un nouveau projet, nous recherchons un OPS sénior pour venir renforcer l'équipe s'occupant de l'exploitation du périmètre. Missions Installer, mettre en production, administrer et exploiter les moyens informatiques d’un ou plusieurs sites informatiques. Participer au bon fonctionnement des systèmes d’information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile) dans un objectif de qualité, de productivité et de sécurité. Mettre en place de la culture devops au sein de l'équipe, autonomiser et dynamiser son équipe et comprendre le besoin des développeurs. Accompagner les développeurs et l'intégration de la solution dans un système complexe. Livrables Construire à l’aide des outils mis à disposition l’infrastructure sous le cloud AWS : architecture ROSA (Redhat Openshift Service on AWS), Oracle, S3, ordonnanceur. Mettre en place toute la stack CICD permettant de construire et déployer les livrables fournis par le CDS (technologies actuellement envisagées : Gitlab-CI, Ansible, Terraform). Effectuer les tests de résilience de la nouvelle application. Documenter et diffuser les compétences pour la gestion du RUN du projet. Identifier les métriques nécessaires à monitorer pour aider à l’analyse. Assurer le run de l’application (mise en production, supervision, debug, incidentologie). Accompagner les équipes support clients dans l'analyse et la résolution des incidents. Dans un contexte agile, être dans un esprit d’amélioration continue. Concevoir et développer les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus. Être référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements.
Freelance
CDI

Offre d'emploi
Coach agile RGPD transverse

ARDEMIS PARTNERS
Publiée le
AWS Cloud
IAM
Méthode Agile

169 jours
40k-45k €
400-640 €
Charenton-le-Pont, Île-de-France
Mission : Accompagnement/Coaching sécurité dans les projets métier & infrastructure (démarche Intégration sécurité dans les projets) Evaluation/validation sécurité des architectures technique Elaborer les architectures et infra. techniques sécurisées Travailler en étroite collaboration avec les équipes IT, infrastructure, support, et sécurité (LOD1 et LOD2). Déplacement en France et à l’international à prévoir. Livrables Définition du profil Définir les politiques et stratégies de sécurité (Sécurité des SI et/ou Protection des données personnelles), piloter la roadmap SSI et le plan SSI annuel Animer et apporter un support à la filière SSI et/ou Protection des données personnelles de l'entité Former, communiquer et sensibiliser à la SSI ou à la Protection des données personnelles Identifier et évaluer les risques de sécurité sous un angle Métier (Risques et impacts sur le métier, dispositifs de maitrise des risques) Elaborer le référentiel de contrôles permanents, réaliser les contrôles permanents de niveau 2 Contribuer ou piloter des revues de sécurité et tests d'intrusion Suivi des plans de remédiation permettant de réduire les risques Audit IT basé sur des référentiels normatifs (type ISO, PCIDSS, SOC2, ...)
Freelance

Mission freelance
Chef de Projet Technique, Expert Cybersécurité – Contexte OSE & NIS (H/F)

CAT-AMANIA
Publiée le
AWS Cloud
DevSecOps
IAM

3 mois
400-650 €
Île-de-France, France
Chef de Projet Expert Cybersécurité – Contexte OSE & NIS (H/F) Le Contexte Rejoignez la Direction Technique Informatique (DTI) dans un environnement à fort enjeu national. Dans le cadre du renforcement de nos obligations de sécurité ( ANSSI : OSE, Directive NIS, ISO/IEC 27001 ), nous recherchons un expert capable de piloter des projets de sécurisation critiques et d’assurer la transition suite au départ d'un collaborateur clé. Votre Mission Votre objectif est d'assurer le pilotage de bout en bout , la mise en œuvre technique et le suivi opérationnel des projets de cybersécurité, tant sur nos environnements On-premise que Cloud . Vos chantiers prioritaires : Pilotage de plans de remédiation : Suite aux audits de sécurité et recommandations de l'ANSSI (type OSE). Identité & Accès (IAM) : Mise en œuvre de fédérations d’annuaires, MFA, SSO, gestion des annuaires AD / Azure AD et durcissement associé. Sécurité Réseau : Projets de segmentation, cloisonnement, et déploiement d’architectures réseau sécurisées (Firewalls, Bastion). Gouvernance & Expertise : Préparation des COPILs Sécurité, accompagnement des choix techniques et force de proposition auprès du Directeur de la DTI pour challenger les solutions techniques. Profil recherché : L'Expertise Technique Nous ne cherchons pas seulement un coordinateur, mais un profil "Hands-on" capable de comprendre et de valider les architectures techniques. Gestion de Projet : Maîtrise des méthodologies (Agile/Cycle en V) et outils de pilotage. Infrastructures & Réseaux : Expertise en durcissement système, segmentation réseau, PKI et certificats. Environnement Annuaire : Maîtrise avancée d'Active Directory, Azure AD et LDAP. Cloud Security : Notions solides sur les environnements Azure / AWS / GCP et les problématiques DevSecOps (CI/CD sécurisé, IaC). Conformité : Excellente connaissance des exigences ANSSI et des normes ISO 27001. Soft Skills Capacité à interagir avec des interlocuteurs de haut niveau (RSSI, Directeurs techniques). Esprit critique pour challenger les experts techniques et les prestataires. Excellentes capacités de synthèse et de reporting (indicateurs de risques, supports de comités).
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Freelance

Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)

ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT

1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Freelance
CDI
CDD

Offre d'emploi
Développeur Fullstack (H/F) – Nantes

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Cypress
Datadog

1 an
10k-51k €
100-400 €
Nantes, Pays de la Loire
Contexte Dans le cadre du développement d’une application en marque blanche dédiée à la vente d’abonnements de nous recherchons un développeur fullstack pour intégrer une équipe agile à taille humaine (7 personnes), basée à Nantes. Vous évoluerez au sein d’une équipe SCRUM , dynamique et collaborative, avec une forte implication dans les choix techniques et fonctionnels. Vos missions Intégré(e) à l’équipe, vous interviendrez sur l’ensemble du cycle de vie de l’application : Maintenance et évolution de l’application existante Développement de nouvelles fonctionnalités Amélioration continue du socle technique Maintien et enrichissement des tests automatisés Exécution des tests de non-régression Déploiement des releases jusqu’en production Participation aux phases de conception en collaboration avec le Product Owner Vos livrables Développement de fonctions AWS Lambda Développement en TypeScript (backend & frontend) Rédaction et exécution de tests (unitaires, intégration, end-to-end) Réalisation de revues de code Rédaction de documents de conception technique Analyse et correction des anomalies Support aux problématiques d’exploitation Contribution au respect des critères d’acceptation des releases Participation aux cérémonies agiles (daily, sprint planning, rétrospective) Contribution à la qualité, la sécurité et la résilience de l’application Environnement technique Stack principale : AWS Lambda TypeScript React Cloudflare PostgreSQL DynamoDB CI/CD & outils : GitLab CI Cypress (tests automatisés) AWS CDK & Terraform Datadog
CDI
Freelance

Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT

OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT

3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Freelance
CDI

Offre d'emploi
Ingénieur devops AWS

OBJECTWARE
Publiée le
DevOps

3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e ingénieur devops AWS. Vos missions seront : Conception, développement et maintenance de l'automatisation de l'infrastructure à l'aide d'outils d’Infrastructure as Code. Encadrement d'une équipe d'ingénieurs SRE afin de garantir la fiabilité, la sécurité et la scalabilité de la plateforme. Pilotage des processus d'automatisation et de gestion des incidents, conformément aux principes SRE. Contribution à l'évolution du cycle de vie du développement logiciel (SDLC) afin de répondre aux exigences métier, de gouvernance et opérationnelles. Collaboration avec les parties prenantes pour améliorer les pratiques de développement, la sécurité et la conformité. Expertise : Ingénierie logicielle : Expérience confirmée dans le développement de fonctionnalités, d'API ou d'outils d'automatisation en environnement cloud ou d'entreprise. Infrastructure as Code (IaC) : Expertise approfondie d’outils de déploiement et de gestion de configuration. Supervision et incidents : Bonne maîtrise des systèmes de supervision, alertes et gestion des incidents. Architecture système : Conception d’architectures scalables, sécurisées et résilientes. DevSecOps et CI/CD : Maîtrise des pipelines CI/CD et des stratégies de déploiement. Expertise technique : Plateforme de gestion de code source d’entreprise : Expérience de son administration et de son exploitation. Cloud : Connaissance des principaux fournisseurs cloud (environnements hybrides, contraintes de résidence des données). Sécurité et conformité : Maîtrise des enjeux de gouvernance et de conformité. Langages et outils : Scripts (ex. : Bash, PowerShell) et outils d’automatisation. Outils collaboratifs : Outils de gestion de projet et de documentation. Compétences supplémentaires : Collaboration avec des équipes pluridisciplinaires et parties prenantes. Excellentes capacités d’analyse et de résolution de problèmes.
Freelance
CDI
CDD

Offre d'emploi
Développer Back end Kotlin Confirmé (4/6 ans d'experiences)

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Java
Kotlin

1 an
10k-57k €
100-500 €
Saint-Denis, Île-de-France
Rejoins un acteur majeur du numérique qui transforme la mobilité de demain Ici, on ne fait pas que développer du code — on conçoit des solutions digitales à fort impact, utilisées à grande échelle, pour simplifier les déplacements et améliorer l’expérience de millions d’utilisateurs. Le défi : faire parler la mobilité avec intelligence. Tu travailleras sur un chatbot conversationnel nouvelle génération qui accompagne les utilisateurs au quotidien : Informations temps réel (statuts, horaires, parcours…) Détails de voyage (quai, placement, desserte…) Services proposés Gestion des modifications et annulations Accessible via web et messageries instantanées, ce produit est un pilier de l’expérience utilisateur. Une stack technique moderne et ambitieuse Chatbot Open Source : framework conversationnel en Kotlin (TOCK) NLP & IA : services de machine learning managés Cloud & Data : AWS (S3, Sagemaker), MongoDB Infra : Kubernetes Front : React Tools : GitHub, GitLab CI, Sonar, Datadog Collaboration : Confluence, Jira, Teams, Miro Ton rôle : builder, améliorer, fiabiliser Intégré·e à une équipe agile, tu interviens sur tout le cycle de vie produit : Développement de nouvelles fonctionnalités (Kotlin) Mise en place de tests (unitaires, intégration, end-to-end) Code review & amélioration continue Monitoring, performance & stabilité en production Analyse d’anomalies & troubleshooting Conception technique & documentation Participation aux rituels agiles (daily, sprint, rétro…) Contribution à la qualité, sécurité et résilience
Freelance
CDI

Offre d'emploi
Développeurs Full Stack Angular / NestJS (H/F)

QODEXIA
Publiée le
Angular
AWS Cloud
Azure

10 jours
Île-de-France, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé.
Freelance

Mission freelance
Expert DBT Snowflake

ROCKET TALENTS
Publiée le
AWS Cloud
Snowflake
SQL

3 mois
400-550 €
Bezons, Île-de-France
Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie
CDI

Offre d'emploi
senior staff engineer - Plateforme - Marseille - H/F

EASY PARTNER
Publiée le
AWS Cloud
PostgreSQL
Python

80k-100k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte du poste Entreprise innovante spécialisée dans le développement de solutions digitales à forte valeur ajoutée, elle conçoit et exploite ses propres plateformes technologiques. Dans un contexte de forte croissance et d’évolution de ses produits (notamment via l’intégration de nouvelles technologies), elle renforce ses équipes techniques avec plusieurs recrutements stratégiques. Vous rejoindrez une équipe tech à taille humaine, répartie sur plusieurs sites en France, avec un haut niveau d’exigence technique et une forte culture produit. Missions Principales Ownership & responsabilité technique Prendre en charge un ou plusieurs périmètres techniques critiques (services / repos / produits) Assurer un ownership end-to-end : conception développement mise en production maintenance amélioration continue Être responsable de la qualité, robustesse et pérennité des systèmes Architecture & conception Concevoir des architectures logicielles robustes, scalables et maintenables Faire des choix structurants sur : découpage applicatif design d’API gestion des données Anticiper les besoins futurs (scalabilité, évolutivité) Refactorer et améliorer des systèmes existants (legacy inclus) Systèmes & workflows complexes Comprendre et faire évoluer des systèmes interconnectés : LMS CRM outils internes de production services tiers / APIs Fiabiliser des workflows complexes multi-services Gérer les dépendances et interactions entre différents systèmes Intégration & APIs Intégrer de nouvelles APIs externes (partenaires, financeurs, services tiers) Concevoir et maintenir des APIs internes robustes Gérer les problématiques : authentification gestion des erreurs résilience Production & fiabilité Travailler sur des systèmes déjà en production (pas de greenfield) Identifier et résoudre des problématiques : performance scalabilité fiabilité Participer à la gestion d’incidents techniques Améliorer l’observabilité et la qualité globale des systèmes Référent technique Être référent technique au sein de l’équipe Accompagner les autres développeurs sur : architecture bonnes pratiques design technique Collaborer avec le CTO sur les décisions structurantes Innovation & amélioration continue Participer à l’intégration de solutions basées sur l’IA Proposer des améliorations techniques continues Contribuer à la montée en maturité technique de la stack Stack technique Python (Django) React SQL Git
CDI

Offre d'emploi
Ingénieur Cloud

Ness Technologies
Publiée le
AWS Cloud
Azure
OVHcloud

Paris, France
Contexte & mission Dans un environnement en forte croissance autour du Cloud public , vous intervenez au sein d’équipes techniques en charge de l’exploitation et du maintien en conditions opérationnelles d’infrastructures multi-cloud . Vous contribuez à garantir la performance, la disponibilité et la sécurité des plateformes, tout en assurant un support technique de niveau avancé. Missions principales Assurer le support technique de niveau 2(+) sur des environnements Cloud public (multi-cloud) Prendre en charge les incidents et demandes via un outil ITSM, dans le respect des processus établis Exploiter et administrer des environnements Linux hébergés dans le Cloud Réaliser les activités de MCO : supervision des infrastructures gestion des sauvegardes application des patchs contrôles quotidiens Diagnostiquer et résoudre les incidents liés aux environnements IaaS / PaaS Maintenir et enrichir la documentation technique (procédures, bases de connaissance) Appliquer les bonnes pratiques en matière de sécurité et d’exploitation Participer aux comités techniques et aux échanges avec les parties prenantes Collaborer avec les équipes projets lors des phases de déploiement et d’évolution Contribuer à des actions d’ amélioration continue et de veille technologique
Freelance

Mission freelance
Chef de Projet Technique Senior GED (H/F)

Nicholson SAS
Publiée le
Administration Windows
Apache Tomcat
CFT (Cross File Transfer)

12 mois
550-600 €
Paris, France
Nous recherchons un profil technique à forte dimension opérationnelle pour piloter le déploiement de nos solutions de GED (Gestion Électronique de Documents) et SAE (Système d'Archivage Électronique) au sein d'environnements complexes, qu'ils soient Cloud ou On-Premise. Votre Mission : Être l'architecte du concret Véritable pivot entre la Direction de Projet et les équipes Infrastructures/Exploitation, vous ne vous contentez pas de configurer un outil : vous lui donnez vie. Le point clé : Au-delà du simple paramétrage applicatif, nous recherchons une personne capable d' orchestrer l'installation complète et autonome d'une solution de GED , de la mise en place technique initiale jusqu’à sa parfaite mise en service opérationnelle. Vos principaux défis Maîtrise Technique : Déployer et administrer les solutions sur des stacks Linux/Windows, Tomcat et PostgreSQL avec une rigueur absolue sur la sécurité. Fluidité Opérationnelle : Assurer l'analyse et la résolution d'incidents complexes tout en garantissant une communication transparente entre les métiers et l'exploitation. Transmissibilité : Rédiger des dossiers d'exploitation soignés pour une transition fluide vers le "Run". Pilotage de l'effort : Gérer votre charge avec une vision acérée du calcul des restes à faire , garantissant la tenue des engagements du projet.
491 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous