L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 242 résultats.
Offre d'emploi
Architecte Sécurité Cloud – Organisation Internationale / Cloud Publics / Sécurité Avancée H/F
Publiée le
AWS Cloud
Azure
Cloud
3 ans
40k-45k €
450-550 €
Paris, France
Télétravail partiel
🎯 Missions & Livrables1. Conception & déploiement de solutions de sécurité Définir des architectures de sécurité Cloud robustes (Zero Trust, IAM, segmentation, secrets…). Assurer le rôle de chef de projet : cadrage, budget, planning, reporting. Concevoir et déployer des solutions conformes aux politiques internes et normes globales. Documenter et maintenir le portefeuille de solutions de sécurité. Intégrer les tests / fonctionnalités de sécurité dans les projets d’infrastructure & cloud. 2. Secure by Design & accompagnement des projets Porter et promouvoir l’approche Secure by Design sur l’ensemble des initiatives. Réaliser des analyses de risques techniques et proposer des remédiations. Accompagner les équipes techniques dans la gestion des aspects sécurité. Définir, suivre et piloter les plans d’actions sécurité associés aux projets. 3. Définition des standards & conformité Contribuer à la création de politiques, standards et bonnes pratiques internes. Participer à l’automatisation des contrôles et au suivi de la conformité (CSPM, CIEM, indicateurs…). Appuyer la mise en conformité vis-à-vis des réglementations internationales, dont NIS2 . Participer à la veille technologique et à l’analyse des nouvelles menaces cyber.
Offre d'emploi
Responsable SysOps – Encadrement et animation de l’équipe SysOps au sein de l’entité Plateforme IT
Publiée le
AWS Cloud
Cloud privé
Infrastructure
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour un grand compte un Responsable SysOps – Management équipe infrastructures OnPremise & Cloud , dans le cadre d’un poste en CDI . Nous étudions – prioritairement – les candidatures qui nous sont adressées à sourcing à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence MDE/CDI/4971 dans l’objet de votre message Le poste concerne un Responsable SysOps intégré à une entité Plateforme IT organisée en agilité à l’échelle. La personne recrutée encadrera l’équipe SysOps responsable du build et du run des infrastructures OnPremise et Cloud public. Le rôle couvre la disponibilité, la performance, l’évolutivité, la capacité, la gestion de l’obsolescence et la maîtrise des coûts des environnements OnPremise, Cloud public et hybrides. Le rôle comprend l’encadrement hiérarchique d’une équipe d’environ quinze personnes (collaborateurs internes et intervenants externes). La structure hiérarchique est distincte de l’organisation opérationnelle : le Responsable SysOps travaille en transverse avec les Product Owner, le Product Manager et le responsable DevOps pour contribuer au delivery et atteindre les objectifs. L’équipe SysOps opère sur trois périmètres : Cloud privé : compute, stockage, virtualisation, OS, datacenter, backup Réseau / sécurité : LAN, WAN, téléphonie, load balancer, firewall Cloud public : Landing Zone AWS L’entité Plateforme IT développe et opère des infrastructures, plateformes et services destinés aux autres équipes de la DSI et contribue à l’accélération du delivery et à la montée en autonomie. Activités principales Encadrement et animation de l’équipe : Organisation et gestion de la charge Suivi du delivery et de la performance Gestion des compétences et recouvrements Uniformisation des pratiques Déclinaison de la vision stratégique Animation de la collaboration et de l’engagement de l’équipe Points de suivi avec les leads et l’équipe Gestion des collaborateurs : Recrutements Gestion des congés et aspects administratifs Suivi des compétences et formations Respect du cadre de travail Réalisation des entretiens annuels Relations avec les ESN : Suivi commercial et organisationnel Gestion des besoins et rotations KPIs, SLAs, reporting : Définition et suivi des KPIs alignés avec les objectifs DSI Pilotage du reporting organisationnel Suivi de la qualité de service et des SLAs Budget et ressources : Construction et suivi budgétaire Gestion des demandes d’achat Gestion des relations avec les ESN Participation aux recrutements Suivi des imputations d’activités et projets
Mission freelance
[SCH] Ingénieur CloudOps / SysOps AWS ou Azure - 1034
Publiée le
5 mois
300-390 €
Paris, France
Contexte de la mission : Au sein de la direction Cloud du groupe, vous interviendrez sur la mise en œuvre, l’industrialisation et le maintien en conditions opérationnelles (MCO) des infrastructures Cloud, dans un environnement critique à forte disponibilité. Vous contribuerez activement à l’automatisation, au FinOps et à la sécurisation des services Cloud tout en assurant le support technique de niveau 2/3. Missions principales : -Concevoir, intégrer et faire évoluer les infrastructures Cloud (AWS / Azure) et les services associés. -Participer à l’industrialisation des environnements en lien avec les équipes DevOps / R&D. -Gérer les incidents, changements et problèmes (ITIL) sur des plateformes de production critiques. -Automatiser les déploiements et configurations via Terraform / Ansible / GitHub / Azure DevOps. -Assurer le MCO, le monitoring et l’optimisation continue (Dynatrace, Splunk, Prometheus…). -Contribuer à la sécurité opérationnelle (ISO 27001) et à la conformité. -Documenter les architectures, procédures et livrables techniques. -Assurer le transfert de compétences vers les équipes N1 et opérationnelles. Livrables attendus : -Documentation technique et d’exploitation à jour. -Rapports de performance et recommandations d’optimisation (FinOps, sécurité, SLA). -Scripts et pipelines d’automatisation. -Tableaux de bord de supervision / monitoring. Profil recherché : - +7 ans d’expérience en CloudOps / SysOps dans des environnements critiques (IaaS/PaaS). -Maîtrise des plateformes AWS et/ou Azure. -Solides compétences en scripting (Python / PowerShell), Linux / Windows, et CI/CD. -Expérience confirmée en Terraform, Ansible, monitoring APM (Dynatrace, Splunk). -Connaissances des bases de données (SQL Server, Oracle, MySQL, Cosmos DB). -Anglais professionnel courant. -Esprit analytique, rigueur, sens de l’anticipation et excellence opérationnelle.
Mission freelance
Architecte Technique Multi-Cloud
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
800-1k €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l’un de ses clients un architecte technique multi-cloud dans le cadre d’un projet de transformation Cloud Hybride ambitieuse. Vos missions : En tant qu'Architecte technique, votre mission principale sera de garantir la cohérence, la sécurité et l'opérabilité des solutions d'hébergement. Concevoir et valider les architectures cibles pour les applications internes et externes, en s'appuyant sur un modèle hybride/multi-cloud. Définir et faire évoluer les patterns d'hybridation entre le Cloud Privé (utilisant OpenShift comme plateforme de conteneurisation et d'orchestration Kubernetes) et les Clouds Publics (principalement Google Cloud, Microsoft Azure, et AWS). Assurer la standardisation et la bonne intégration des services PaaS/IaaS des différents fournisseurs. Participer activement à la définition et à l'implémentation de la Platform Engineering pour faciliter le déploiement et l'exploitation par les équipes de développement (culture DevOps/GitOps). Mettre en place et optimiser les outils et processus de CI/CD, de gestion de l'hébergement et de l'observabilité.
Offre d'emploi
Project Management Monitoring & Alerting
Publiée le
AI
AWS Cloud
Azure
3 ans
40k-45k €
400-450 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Au sein de la Direction Informatique , le Domaine « End to End RUN Connected Services & My Brand » est en charge de la qualité opérationnelle de l’ensemble de la chaîne de valeur couvrant les produits Groupe disponibles sur smartphones et l’ensemble de la chaîne d’outils et plateformes de connexion off-board / on-board du produit permettant de : - Configurer les composants ‘on-board’ lors de la fabrication du produit. - Activer les services à la livraison du produit. - Utiliser au quotidien les services connectés depuis un smartphone. - Collecter des données de santé du produit, des systèmes embarqués, des données d’usage du client, des métriques des systèmes d’assistance pour permettre d’améliorer la maintenance et la fiabilité du produit.. Le fonctionnement opérationnel de ces systèmes 24h/24 et 7j/7 est indispensable pour supporter le bon fonctionnement de l’industrie, des services commerciaux et l’usage de ses services, tout en accompagnant les transformations digitales indispensables. Dans ce contexte, la qualité et la performance des outils de monitoring est indispensable. Pour s’adapter à ces enjeux, le Domaine E2E RUN recherche une prestation de Project Management Monitoring & Alerting, dont les principales activités sont les suivantes : - Mise en place d’un plan d’actions pour amélioration la performance du monitoring - Mise en œuvre d’une stratégie robuste pour les outils de monitoring entre les solutions Grafana et Dynatrace - Assurer une totale couverture du monitoring sur le périmètre fonctionnel VS8 - Mise en place et suivi d’outils des outils de monitoring et alerting - Pilotage et optimisation de l’engagement des équipes du partenaire pour faire évoluer ces solutions - Mise en place de KPI de suivi projets / produits - Définir et préparer la stratégie d’introduction de l’IA
Offre d'emploi
Architecte Cloud Stockage NetApp
Publiée le
AWS Cloud
Azure
High Level Design (HLD)
41k-87k €
Île-de-France, France
Télétravail partiel
Nous recherchons des Architectes Stockage NetApp avec une expertise en Cloud(Azure ou AWS). Les profils basés au Maroc et intéressés par un poste en France seront les bienvenus. Missions: Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud), en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales : • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Mission freelance
SYSOPS H/F
Publiée le
Ansible
AWS Cloud
Microsoft Windows
3 mois
Lille, Hauts-de-France
Télétravail partiel
MISSION Administration et évolution des environnements Microsoft Windows Server, Active Directory, Entra ID (Azure AD). Participation à la migration et à l’exploitation d’environnements Cloud publics et privés. Mise en œuvre de solutions Infrastructure as Code (IaC) (Packer, Terraform, Ansible, etc.). Gestion et optimisation des environnements VMware (vSphere, vCenter). Contribution aux projets de transformation IT (sécurité, automatisation, modernisation). Veille technologique et force de proposition sur les bonnes pratiques Cloud et systèmes
Offre d'emploi
Développeur Full Stack PHP / Symfony / React
Publiée le
AWS Cloud
Kubernetes
PHP
1 an
40k-55k €
400-550 €
Île-de-France, France
Télétravail partiel
🚀 Nous recrutons ! – Développeur Full Stack PHP / Symfony / React Vous êtes passionné(e) par le développement et souhaitez rejoindre une équipe agile, innovante et à taille humaine ? Nous avons une opportunité pour vous ! Missions principales Développer et maintenir des fonctionnalités back-end sous PHP (Symfony) Créer et optimiser des interfaces dynamiques avec React / TypeScript Assurer la qualité, performance et sécurité des applications Participer à l’intégration continue et au déploiement automatisé ( CI/CD ) Contribuer à l’architecture logicielle et aux bonnes pratiques de développement Compétences recherchées Langages : PHP 8.2, ReactJS Frameworks : Symfony, Next.js Bases de données : Postgres, SQL Server DevOps / CI/CD : Kubernetes, Docker, GitLab CI/CD, Helm, ArgoCD Cloud : AWS (EC2, RDS, EKS, EFS) Architecture : microservices, APIs REST UX/UI : Responsive Design Les plus Entreprise à taille humaine Participation à des chantiers stratégiques à fort impact utilisateur Télétravail possible après 3 mois ==> Un expérience dans le domaine assurance ou sur des sujets DATA (PowerBI, python, etc.) serait un plus 💡 Intéressé(e) ? Contactez-nous pour en savoir plus ou postuler !
Offre d'emploi
Security Referent – Paiement & PCI DSS (H/F) - (Profil très technique)
Publiée le
AWS Cloud
Azure
PCI DSS
3 ans
France
Télétravail 100%
CLIENT JEUX ARGENT : Nous recherchons un Security Referent spécialisé dans les environnements paiement pour accompagner les équipes techniques sur la sécurisation de l’ensemble des flux sensibles : traitement carte, autorisations, wallet, transactions, gestion de la fraude et conformité PCI DSS . Intégré directement au sein des squads produit, vous serez responsable de la définition et du suivi des bonnes pratiques de sécurité applicative et cloud sur des piles techniques incluant Rust, Kotlin, Angular, .NET , ainsi que sur une architecture microservices fortement distribuée. Vous interviendrez à la fois sur la révision des implémentations sensibles , la conception sécurisée des API de paiement, la validation des IAC ( Terraform , pipelines CI/CD) et la sécurisation des environnements AWS / Azure . Vous analyserez les points de fragilité, proposerez des améliorations, et piloterez les chantiers de remédiation nécessaires pour garantir un haut niveau de résilience, la réduction des risques fraude et le maintien de la conformité réglementaire. En tant que référent, vous serez également le point d’entrée privilégié entre les équipes dev, les équipes plateforme et les autres pôles sécurité (offensif, SOC, compliance).
Mission freelance
Concepteur Développeur Big Data
Publiée le
Apache Spark
AWS Cloud
Azure
12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Offre d'emploi
Ingénieur JAVA - SPARK - EXPERIMENTE ( H/F)
Publiée le
Angular
Apache Spark
API REST
3 ans
44k-63k €
450-600 €
Guyancourt, Île-de-France
Télétravail partiel
Nous recherchons un ingénieur Java senior, expérimenté en développement de solutions de traitement de données avec Spark, déploiement sur Kubernetes et conception de dashboards PowerBI, capable de travailler en autonomie et en collaboration avec des équipes multidisciplinaires. Missions principales : Développement de composants Java pour la collecte, le traitement et la transformation de données via API, fichiers ou bases de données. Conception et mise en place de traitements de données avec Spark . Déploiement, gestion et optimisation d’applications sur Kubernetes. Rédaction et maintenance de tests automatisés avec Cucumber pour assurer la qualité du code. Conception et développement de dashboards et rapports PowerBI. Collaboration avec les équipes infrastructure pour garantir la sécurité et l’intégration des applications. Participation à l’amélioration continue des applications et des process de développement. Profil recherché : Expérience : 5 à 8 ans en développement Java avec une expérience sur technologies de traitement de données (Spark, Kafka, etc.). Compétences techniques : Java et frameworks Spring/Hibernate Angular pour le développement d’IHM Kubernetes et bonnes pratiques DevOps Spark 3 en Java Cucumber pour tests automatisés Développement d’API REST/SOAP, OAuth2, TDD Conception de dashboards PowerBI Connaissance des architectures microservices et expérience cloud (GCP, AWS)
Offre d'emploi
Data Engineer Talend - DAX
Publiée le
AWS Cloud
Azure
Snowflake
40k-50k €
Dax, Nouvelle-Aquitaine
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Offre d'emploi
Tech lead VOC
Publiée le
AWS Cloud
Cybersécurité
Microsoft Access
12 mois
40k-48k €
350-550 €
Meudon, Île-de-France
Télétravail partiel
Contexte de la mission Au sein du VOC en charge de la Détection, Prévention et Réponse aux incidents de sécurité sur le périmètre des réseaux opérateurs et Systèmes d'information, vous serez rattaché à la responsable VOC. L'équipe VOC est en charge de la centralisation des sources de scan, leur configuration, l'analyse des vulnérabilités remontées par ces outils et le suivi des remédiations auprès des équipes métiers. Votre mission, très riche sera : Participation à l'activité de veille sur les dernières vulnérabilités pouvant impacter les technologies de notre parc Analyse des résultats de scan et suivi de leur remédiation auprès des métiers Intégration des vulnérabilités cloud et de l'outil de scan cloud dans les activités du VOC (processus, documentation, formation de l'équipe) Accompagnement des analystes VOC dans la reprise de la sécurité des AD (pingcastle, bloodhound,...) Accompagnement dans la montée en compétence des membres de l'équipe (processus, documentation, formation de l'équipe) Accompagnement des analystes VOC dans la reprise de la sécurité des AD (pingcastle, bloodhound...) Accompagnement dans la montée en compétence des membres de l'équipe En tant que tech lead de l'équipe, vous aurez une double casquette d'analyste VOC mais également de référent technique auprès des autres analystes de l'équipe. Compétences demandées Active Directory cybersécurité AWS Analyse de vulnérabilité
Mission freelance
Profil expérimenté DBT/Snowflake
Publiée le
AWS Cloud
DBT
Pandas
6 mois
370-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un profil expérimenté DBT/Snowflake. Voici les caractéristiques : Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer Localisé sur Bordeaux avec 3 jours de TT/semaine
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Calcul de l'indemnité de la rupture conventionnelle
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
242 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois