Trouvez votre prochaine offre d’emploi ou de mission freelance AWS Cloud

Ce qu’il faut savoir sur AWS Cloud

AWS (Amazon Web Services) Cloud offre une suite complète de services cloud pour le calcul, le stockage et le réseautage. Son infrastructure évolutive et fiable prend en charge une large gamme d'applications et de services.

Votre recherche renvoie 635 résultats.
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance

Mission freelance
Développeur Front Angular (H/F)

Insitoo Freelances
Publiée le
Angular
AWS Cloud

2 ans
400-520 €
Lyon, Auvergne-Rhône-Alpes
Les missions attendues par le Développeur Front Angular (H/F) : Descriptif de la mission : Activités de développement (front) Build & Run, de la conception à la réalisation jusqu’au maintien en conditions opérationnelles : Analyse et conception : rédaction des documentations techniques, participation aux ateliers de conception Développement de la solution : Concevoir, développer, tester et déployer la solution Tests et qualité au fil des sprints Rituels Agile (Daily, Planning, Review, Rétrospective…) Déploiement et Maintenance : assurer la correction des bugs et assurer la disponibilité du service Assistance lors de la mise à niveau des tests automatisés Playwright Veille technologique et amélioration continue : Proposition d’évolutions techniques ou d’innovations utiles à la valeur produit, capitalisation sur les retours d’expérience pour améliorer en continu les pratiques de l’équipe Accompagnement techniquement les développeurs : revue de code, pair programming, aide à la montée en compétences. Angular / HighCharts / Jira / Confluence Obligatoire : AWS Certified Cloud Practitioner / AWS Certified Cloud Developer
Freelance

Mission freelance
INGENIEUR DE PRODUCTION VTOM sénior H/F

Cheops Technology
Publiée le
Apache
AWS Cloud
CFT (Cross File Transfer)

1 an
400-450 €
Saint-Denis, Île-de-France
Nous recherchons pour un de nos clients un ingénieur VTOM H/F: Intégrer et déployer en méthode AGILE les évolutions de la ligne de Service Ordonnancement (VTOM). Préparer la mise en exploitation des évolutions ou d’une évolution d’application dans un système d’information tout en s’attachant à vérifier que les applications insérées dans le système d’information fonctionnent conformément aux attentes techniques et métiers, et que les procédures d’exploitation sont conformes aux standards établis. Gérer la relation avec les Clients et Projets Applicatifs en vue de garantir et améliorer la qualité des services de production et d’améliorer globalement les services de la ligne de Service ordonnancement Assure la maintenance et l’évolution des plateformes VTOM. •Créer/maintenir les scripts nécessaires pour l’ordonnancement. •Créer et encapsuler des scripts fonctionnelles •Paramétrer les jobs VTOM •Préparer la télédistribution en production •Maintenir en condition opérationnelle des chaines d’ordonnancements et des plateformes. •Accompagner les solutions métiers pour la rédaction de leur plan d’ordonnancement. •Assister et conseiller les équipes projets sur les différentes solutions pour leur ordonnancement applicatif. •Participer à la définition des architectures techniques •Définir / supprimer / modifier les plans d’ordonnancement •Maintenir les documentations •Participer à la conception des feuilles de route techniques des plateformes Environnement fonctionnel et technique : Environnement : Hébergement Datacenter et cloud (Aws, Azure) SGBD Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris , NoSQL Couchbase, Redis, MONGODB, PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, Weblogic, CFT, MQ Server, SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo Plateformes/ logiciels / Outils Teraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes, Databricks, Script Shell, Python Supervision Nagios, Datadog, SpluNK
Freelance

Mission freelance
[LFR] Expert sécurité Cloud AWS/GCP à Guyancourt - 1253

ISUPPLIER
Publiée le

10 mois
300-545 €
Guyancourt, Île-de-France
Vous travaillerez en lien étroit avec l’équipe d’expertise Cyber et les équipes qui gèrent les offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Ceci afin d’accompagnerez la révolution #devops #Cloud des entreprises du groupe Crédit Agricole avec la mise en place sécurisée de briques technologiques innovantes autour des patterns d'architecture #Container, #Hybridation, #Cloudpublic. Vous participez à la mise en place de mesures et de pratiques de cybersécurité liées aux évolutions du système d’information ou à sa règlementation. Au jour le jour, votre rôle sera d’assister CA-GIP sur les missions Run Sécurité suivantes : Lutter contre les vulnérabilités Cloud : • Administrer l’outil CNAPP qui permet de gérer les vulnérabilités, les audits de configuration et les comportements à risque de nos environnements cloud publics. • Assurer l’adoption de l’outil auprès des utilisateurs : Documentation, formation, accès, amélioration, suivi des bugs, suivi des licences • Aider à maintenir tous les contrôles, politiques et procédures à jour en fonction des normes de l'industrie dans un objectif d'amélioration continue. Bâtir une gouvernance sécurité transverse : • Assurer le pilotage global des risques opérationnels détectés sur ce périmètre par les différents outils en place. • Coordonner les parties prenantes (dev, secops, infra, référents sécurité) • Produire des indicateurs de suivi de la sécurité opérationnelle afin d’apporter de la visibilité et de la confiance. • Surveiller, gouverner et valider le niveau de maturité et de conformité aux référentiels (ISO, NIST, RGPD, IA Act.) Accompagner les équipes techniques : • Animer des atelier pour aider les équipes techniques à qualifier les vulnérabilités et à répondre aux alertes sur leurs actifs projets. o Contextualiser les vulnérabilités découvertes selon l’environnement CA-GIP o La participation et le soutien technique à la résolution des vulnérabilités o L’assistance des équipes techniques à la mise en place des bonnes pratiques de cybersécurité pour les clouds publics o L’affectation des vulnérabilités aux bonnes équipes, automatiquement ou manuellement • Former les développeurs et data scientists aux bonnes pratiques de sécurité Participer à la vie de l’équipe sécurité : • Analyser les risques liés aux projets. • Rédiger des expressions de besoins de sécurité • Transmettre la connaissance et montée en compétence de la sécurité cloud des équipes. • Coopérer avec les pairs et la communauté de la cybersécurité au sein de CA-GIP pour établir une relation de travail collaborative globale, créer une adhésion et une base solide pour les décisions des parties prenantes. Compétences recherchées Compétences métiers :  Création, intégration & administration d’infrastructure Cloud Public (AWS/Google Cloud Platform) de façon sécurisée.  Familier de la méthodologie de déploiement en continu (Gitlab, infrastructure as code, CI/CD, Terraform) [DevOps]  Compétences système et en développement (Linux, Python, Javascript, ..)  Connaissance dans l’intégration des contrôles de sécurité dans la chaine de développement et les plateformes d’exécution cloud native (audit de code, security as code).  Outils de protection des applications cloud natives (CNAPP, KSPM, CWPP, Dome9, Wiz, ...)  Connaissances des normes et technologies propres à la cyber sécurité  Connaissances des bonnes pratiques d’audit IT  Connaissances des normes liées à la gestion des risques de conformité réglementaire.  Vous êtes capable de promouvoir les bonnes pratiques sécurité sur les sujet Cloud.  Capacité à créer et présenter des sujets complexes à différentes populations de personnes (Techniques, Manageurs…) Compétences comportementales : • Autonome et organisé ; • Bonne capacité à travailler en équipe ; • Bon relationnel et réactif; • Capacité à fédérer et entraîner derrière soi ; • Une bonne gestion des priorités ; • Force de proposition et amélioration continue ; • Un grand sens de l'analyse afin de gérer les projets de transitions, et d'anticiper les problèmes techniques potentiels. • Aptitude à s’adapter à ses interlocuteurs dans la communication Langues Anglais opérationnel
Freelance

Mission freelance
chef de projet technique / Cloud /Devops

Keypeople Consulting
Publiée le
.NET
AWS Cloud
Azure

6 mois
400-600 €
Île-de-France, France
Nous CHERCHONS un Chef de Projet / Product Owner Technique (Senior) – Transformation Cloud & DevOps Dans le cadre d’un programme majeur de modernisation technologique , nous recherchons un Chef de Projet / PO Technique Senior pour accompagner la transformation d’un système d’information stratégique dans le secteur des médias et de la diffusion audiovisuelle. 🎯 Votre mission Au cœur des projets de transformation, vous interviendrez sur plusieurs axes structurants : Piloter les projets techniques liés à la modernisation du SI et à la migration vers un nouveau Data Center Accompagner la mise en place d’une architecture cible moderne (Cloud / DevOps / Cloud Native) Intervenir sur l’intégration et l’évolution d’un Broadcast Management System (BMS) central dans l’écosystème métier Collaborer avec les équipes IT, exploitation et développement Contribuer aux sujets transverses : orchestration des workflows médias urbanisation de la data stratégie de supervision et amélioration de la qualité de service Participer aux choix d’architecture et aux projets de transformation Cloud 🛠 Compétences techniques attendues Expérience des environnements Cloud (AWS, Azure ou GCP) Bases de données : Oracle, SQL Server, PostgreSQL Connaissance du développement .NET Bonne maîtrise des architectures microservices Connaissances en sécurité IT et réseaux ⭐ Un plus Expérience dans l’univers média / télévision / broadcast Connaissance d’un Broadcast Management System (BMS) ou outils similaires Familiarité avec les problématiques MAM, stockage média, orchestration de workflows Expérience en Agile, DevOps ou architectures Cloud Native 📍 Modalités Mission Senior Présence sur site : environ 50% Environnement technique stimulant et projets à fort impact
Freelance

Mission freelance
EXPERT DBA SQL ORACLE & AWS HABILITABLE, anglais courant H/F

Cheops Technology
Publiée le
Administration système
AWS Cloud
Microsoft SQL Server

6 mois
400-550 €
Melun, Île-de-France
Sous la responsabilité du responsable de service et le support d’un référent interne expert le candidat aura en charge la gestion des activités suivantes Gestion globale d’exploitation du périmètre des bases de données •Gestion des incidents et des changements •Maintien en Condition opérationnelles et de Sécurité (Patching) •Contribution à la mise à jour et au maintien du catalogue des services Base de Données •Reporting et du suivi d’activité global de son périmètre •Respect des normes et exigences de sécurité des systèmes d’informations •Respect des process •Réalisation et mise à jour des documentations d’exploitation En complément, il participera à l’accompagnement technique d’intégration des bases de données pour les projets (BUILD) •Définition d’architecture des bases de données pour les projet applicatifs (accompagnement des architectes sur les spécifications et exigences techniques de dimensionnement, disponibilité, et de performance •Accompagnement à l’intégration des bases de données des solutions applicatives •Elaboration des référentiels techniques de bases de données (Dossier d’architecture technique détaillés, Dossier de mise en exploitation SQL Serveur CLOUD
Freelance
CDI

Offre d'emploi
Data Engineer Python / Scala / Cloud

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST

12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
CDI

Offre d'emploi
Data scientist (H/F)

IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
Freelance

Mission freelance
Ingénieur Logiciel Senior (Fullstack .NET / PHP)

Nicholson SAS
Publiée le
.NET
Amazon S3
AWS Cloud

6 mois
500 €
Paris, France
Mon client, filiale d'un groupe international, est un leader mondial dans le déploiement de l'IA et des technologies avancées pour le secteur juridique. Vous rejoindrez notre équipe technique française, actuellement engagée dans un ambitieux programme de convergence technologique , visant à unifier nos solutions sous une architecture .NET moderne pour soutenir nos innovations en IA. En tant qu'Ingénieur Logiciel Senior, vous jouerez un rôle pivot dans la rationalisation de nos plateformes. Nous recherchons un profil hybride capable de maintenir nos systèmes PHP actuels tout en pilotant leur migration progressive vers une stack .NET . Ce poste est idéal pour un expert doté d'une double culture logicielle, souhaitant mettre son expérience PHP au profit d'une transformation d'architecture majeure vers le C# / .NET au sein d'un environnement Fullstack. Responsabilités Transition Technologique : Piloter la migration des composants et services historiques de la stack PHP (Symfony/Laravel) vers l'écosystème .NET / C# afin d'unifier nos environnements de production. Développement Fullstack : Concevoir des architectures robustes et scalables en veillant à la cohérence entre les anciens services et les nouvelles interfaces .NET. Qualité & Architecture : Garantir la pérennité du code (revues, tests unitaires/intégration) et participer activement à la définition des nouveaux standards techniques avec les architectes. Collaboration Agile : Évoluer au sein d'une squad SCRUM/KANBAN pour livrer des fonctionnalités en cycle continu (CI/CD). Mentorat : Accompagner l'équipe dans la montée en compétence sur l'univers .NET durant cette phase de transition. Prendre en considération une option d'une internalisation en CDI au bout de 6 mois de prestation. Si schéma d'internalisation non souhaité pour vous, merci de ne pas postuler !
Freelance
CDI
CDD

Offre d'emploi
Architecte Kafka

LEVUP
Publiée le
Apache Kafka
AWS Cloud

12 mois
Liège, Belgique
Dans le cadre de la conception et de l’évolution de plateformes applicatives et data orientées temps réel , nous recherchons un Architecte Kafka AWS capable d’intervenir de bout en bout (end-to-end / endzone) : de l’architecture backend et streaming jusqu’à l’intégration avec les applications frontend. Le poste s’inscrit dans des environnements cloud AWS à forts enjeux de performance, de scalabilité et d’intégration SI. Rôle & responsabilitésArchitecture globale (End-to-End) Concevoir l’ architecture applicative et data de bout en bout Garantir la cohérence entre : Frontend (Angular) Backend (.NET) Streaming & intégration (Kafka) Infrastructure AWS Être le référent architecture sur le périmètre fonctionnel et technique Kafka & intégration Concevoir et mettre en œuvre des architectures événementielles basées sur Apache Kafka Définir les patterns d’intégration : Event-driven Pub/Sub CDC (Change Data Capture) Mettre en place Kafka Connect, Schema Registry, MirrorMaker Accompagner les équipes sur la modélisation des événements et contrats de données Environnement AWS Déployer et opérer Kafka sur AWS (Amazon MSK ou équivalent) Concevoir l’architecture cloud : VPC, IAM, sécurité, réseaux EC2 / EKS selon les besoins Intégrer Kafka avec les services AWS (S3, Lambda, bases de données, etc.) Backend – .NET Concevoir des API et services backend en .NET Définir les standards d’architecture (clean architecture, microservices) Garantir performance, sécurité et maintenabilité Intégrer les flux Kafka côté backend Frontend – Angular Définir les principes d’architecture frontend Angular Assurer la bonne intégration avec les API et les flux temps réel Travailler sur l’expérience utilisateur dans des applications data-driven Qualité & gouvernance Mettre en place les bonnes pratiques : Sécurité Monitoring Logging Résilience Documenter les architectures Participer aux revues techniques et d’architecture Accompagner et guider les équipes de développement Compétences techniques requisesStreaming & intégration Apache Kafka (expert) Kafka Connect, Schema Registry Architectures event-driven Formats : JSON, Avro, Protobuf Cloud & DevOps AWS (très bonne maîtrise) Amazon MSK CI/CD Infrastructure as Code (Terraform, CloudFormation) Backend .NET / C# APIs REST Microservices Frontend Angular Intégration frontend / backend Notions UX appréciées Profil recherché Formation ingénieur ou équivalent Expérience confirmée en architecture end-to-end Solide expérience sur Kafka en production À l’aise dans des environnements complexes et multi-équipes Capacité à dialoguer aussi bien avec les développeurs que les métiers Atouts appréciés Expérience grands comptes Connaissances data (Spark, Flink, etc.) Certifications AWS / Kafka Sens du produit et de l’expérience utilisateur
Freelance

Mission freelance
Data Analytics Enigneer

Phaidon London- Glocomms
Publiée le
AWS Cloud
Data visualisation
Python

6 mois
400-550 €
Paris, France
Concevoir, développer et optimiser des modèles de données pour l’analyse et le reporting Mettre en place et maintenir des pipelines de données robustes et performants Collaborer avec les équipes data et métiers pour comprendre les besoins et les traduire en solutions analytiques Garantir la qualité, la cohérence et la documentation des données Contribuer aux projets de visualisation de données, notamment via Tableau Participer à l’évolution des bonnes pratiques et des standards internes en analytics engineering
CDI
Freelance

Offre d'emploi
Production Engineer (K8S / AWS / Datadog) — Lille (59)

NEWRAMA
Publiée le
Datadog

3 ans
Paris, France
Rejoignez une équipe d'experts Ops en charge de l'exploitation d'une plateforme digitale critique à très fort trafic. Au sein d’un domaine orienté RUN, Fiabilité et Performance, vous intervenez sur un environnement technologique de pointe où l'observabilité est la clé de la réussite. Ici, le défi est de garantir une disponibilité sans faille pour des millions d'utilisateurs quotidiens, tout en modernisant l'infrastructure en continu. Vos Objectifs En tant que Senior Production Engineer, vous portez une vision "Reliability" et industrialisez la production : Exploitation (RUN) : Assurer la disponibilité et la performance des applications en production. Observabilité & Pilotage : Utilisation avancée de Datadog pour le monitoring, la supervision de la QoS et le diagnostic. Gestion d'Incidents : Analyse, debug et pilotage des incidents majeurs (approche SRE). Modernisation : Contribuer aux chantiers de rebuild / refactoring (scalabilité et optimisation des coûts Cloud). Automatisation : Industrialiser les processus dans une approche GitOps / DevOps (FluxCD, GitLab CI). Stack Technique Cloud : AWS (Full Cloud) Orchestration : Kubernetes (K8S), Helm, FluxCD Infrastructure as Code : Terraform Observabilité : Datadog (Expertise indispensable) CI/CD / Container : GitLab CI, Docker Ecosystème : Cloudflare, Keycloak, MongoDB, Java
Freelance

Mission freelance
Ingénieur Data senior

JobiStart
Publiée le
AWS Cloud
Python

1 an
400-550 €
Île-de-France, France
Intervenir sur des programmes stratégiques Data et Intelligence Artificielle au sein de la DSI, sur un socle Cloud orienté Data Intelligence Apporter une expertise Data et Machine Learning Engineering pour concevoir, déployer et exploiter des solutions analytiques et IA à l’échelle Mettre en place des chaînes complètes de gestion de la donnée, depuis l’ingestion jusqu’à l’exposition des usages data et IA Développer et automatiser des flux de données distribués en s’appuyant sur les services Cloud AWS Construire et maintenir des pipelines robustes intégrant orchestration, traitement et stockage des données Participer à la structuration et à l’industrialisation des environnements MLOps et des cycles de vie des modèles ML et IA générative Déployer, superviser et automatiser les plateformes de Machine Learning (SageMaker) et les mécanismes de monitoring associés Réaliser des traitements analytiques, transformations de données et optimisations sur des plateformes de type data warehouse cloud Mettre en œuvre des processus CI/CD et des déploiements automatisés via des outils DevOps Développer des briques techniques Data/IA exploitables par les équipes internes (pipelines, services, composants applicatifs) Participer aux phases de conception, d’architecture, de tests, d’intégration et de mise en production des solutions Alimenter et maintenir les environnements nécessaires aux produits data, analytiques et applicatifs Accompagner les équipes Data Science et techniques dans la clarification des besoins Data/IA Faciliter l’industrialisation et la mise à disposition rapide des cas d’usage Produire la documentation technique et contribuer au respect des standards d’architecture, sécurité et gouvernance
Freelance
CDI
CDD

Offre d'emploi
Expert DevOps

bdevit
Publiée le
Ansible
AWS Cloud
CI/CD

36 mois
Île-de-France, France
Contexte : Dans le cadre des activités d’industrialisation et d’automatisation des plateformes IT d'une banque de renom, l’Expert DevOps interviendra au sein des équipes de production et d’ingénierie afin de garantir la fiabilité, la scalabilité et la sécurité des chaînes de déploiement applicatif dans des environnements critiques bancaires. Missions Pincipales : Concevoir, mettre en œuvre et maintenir les pipelines CI/CD pour l’industrialisation des déploiements applicatifs ; Automatiser les processus de build, test et release dans une logique GitOps ; Déployer et administrer des environnements conteneurisés sous Kubernetes ; Gérer l’infrastructure as code via Terraform et/ou Ansible ; Intégrer et administrer des solutions APIM (idéalement Kong ) ; Superviser les plateformes via des outils de monitoring (Dynatrace, Prometheus, etc.) ; Garantir la haute disponibilité et la résilience des applications en production ; Participer aux activités de MCO et à la gestion des incidents de niveau 2/3 ; Assurer la sécurité des déploiements (gestion des secrets, conformité, etc.) ; Collaborer étroitement avec les équipes développement, sécurité et production.
Freelance

Mission freelance
Référent technique Dataiku / Braincube (H/F)

Insitoo Freelances
Publiée le
Architecture
AWS Cloud
Dataiku

2 ans
550-670 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Référent technique Dataiku / Braincube (H/F) à Paris, France. Contexte : Dans le cadre du déploiement et de l’exploitation des solutions Dataiku et Braincube pour notre client, nous recherchons un consultant senior capable d’intervenir en tant que référent technique et architectural au sein de la Data Factory. Son rôle sera d’assurer la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise. Les missions attendues par le Référent technique Dataiku / Braincube (H/F) : • Maintien des standards, suivi des usages, conformité licences • Gestion des incidents, demandes, changements • Pilotage performance, optimisation, définition de SLAs & KPIs • Construction et suivi de la roadmap technologique • Amélioration continue & gestion du plan de charge • Sécurité, résilience et gestion de l’obsolescence • Interface avec les équipes DSIC et coordination France / Inde Livrables attendus : • Offre de service (ServiceNow) • Météo du service & reporting • Guides de bonnes pratiques Dataiku / Braincube • Supports de formation & onboarding • Cartographie des flux et modèles data • Business model du service Environnement technique : • Dataiku (Design Node, Automation Node, API Node, Deployer Node) – Cloud AWS & On Premise C3 • Écosystème data interfacé : EKS, Snowflake, stockage, ingestion, restitution • Plateforme Braincube hébergée sur AWS – EKS, opérée par l’éditeur • Environnement de dev standardisé, documentation centralisée et outils collaboratifs (Teams, Backlog…) Compétences attendues : • Expertise AWS (S3, EKS, EC2…) • Maîtrise Dataiku et connaissance des outils data & ML Ops • Compréhension architecture SI & data, gouvernance, sécurité (RBAC, chiffrement, RGPD) • Aptitude à collaborer avec les équipes France / Inde • Excellente capacité de documentation et de vulgarisation • Capacité à construire un business model de service • Minimum 8 ans d’expérience Détails logistiques : • Télétravail : 2J par semaine • Localisation : Paris / Malakoff - avec ponctuellement des déplacements à Châteaufort / Magny les Hameaux
Freelance
CDI

Offre d'emploi
DevOps Python H/F

OBJECTWARE
Publiée le
AWS Cloud
Python

1 an
Nantes, Pays de la Loire
Les missions : - vous intervenez sur l’ensemble du cycle de vie des applications : conception, développement, déploiement et maintenance. - vous participez activement à la conception de solutions robustes, scalables et sécurisées, en répondant aux exigences fonctionnelles et techniques. Le rôle couvre à la fois le développement Front-End (React), le développement Back-End (Python, AWS Lambda) ainsi que les activités DevOps et Cloud AWS. - vous êtes impliqué(e) dans une migration technologique d’un backend existant

Les métiers et les missions en freelance pour AWS Cloud

Ingénieur·e devops (Cloud)

L’ingénieur·e devops utilise AWS pour automatiser, orchestrer et gérer les déploiements d'applications dans des environnements Cloud, garantissant leur scalabilité et leur disponibilité.

Architecte Cloud

L’architecte Cloud conçoit des infrastructures basées sur AWS, en intégrant des solutions sécurisées, performantes et adaptées aux besoins des entreprises.

Responsable des infrastructures et de la production

Le/ La responsable des infrastructures utilise AWS pour superviser et optimiser les services Cloud, tout en assurant leur bon fonctionnement et leur maintenance.

Ingénieur·e systèmes & réseaux

L’ingénieur·e systèmes & réseaux exploite AWS pour configurer, surveiller et sécuriser les environnements Cloud tout en facilitant les connexions réseau hybrides.

635 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous