Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 201 résultats.
Freelance

Mission freelance
Cloud Automation & Data Engineering

ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance

1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Freelance
CDI

Offre d'emploi
Ingénieur Plateforme Cloud / Disaster Recovery - AWS Certified Solutions Architect – Professional

CELAD
Publiée le
AWS Cloud
Terraform

1 an
70k-85k €
600-700 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de la résilience d’une plateforme cloud stratégique, nous recherchons plusieurs Ingénieurs Plateforme Cloud pour concevoir et déployer une solution de Disaster Recovery de type Warm Pilot sur AWS. Vous interviendrez sur un environnement à forte criticité, avec des exigences élevées en matière de disponibilité, sécurité, automatisation et excellence opérationnelle . L’objectif : construire une capacité de reprise robuste, testable et industrialisée, au cœur de la plateforme. Vos missions Vous serez au centre de la stratégie de continuité d’activité et interviendrez sur des sujets à fort impact : Analyser et challenger l’architecture DR existante (failover, failback, réplication, orchestration) Concevoir et mettre en œuvre une solution Warm Pilot adaptée aux workloads critiques Industrialiser les déploiements via Infrastructure as Code (Terraform / Terragrunt) et GitOps (ArgoCD) Automatiser les mécanismes de reprise (bascule, synchronisation, validation) Définir les procédures opérationnelles (runbooks, tests DR, scénarios de reprise) Identifier les risques techniques : dépendances, points de défaillance, limites opérationnelles Collaborer avec les équipes plateforme, sécurité et applicatives pour garantir la cohérence globale
CDI
Freelance

Offre d'emploi
Ingénieur Système H/F

KOLABS Group
Publiée le
Active Directory
Azure
Distributed File System (DFS)

6 mois
40k-45k €
400-550 €
Paris, France
Pour le compte de notre client du secteur du luxe, nous sommes à la recherche d’un profil Ingénieur Système expérimenté afin de renforcer l’équipe Infrastructure. Vous interviendrez à la fois sur des activités opérationnelles (RUN) et sur des projets structurants liés à l’évolution des environnements systèmes et cloud. La mission se déroulera dans un environnement à forte valeur ajoutée, avec un fort enjeu de fiabilité, de sécurité et d’amélioration continue des infrastructures. Missions 💼 : Assurer le support de niveau 3 sur les incidents liés à l’infrastructure, principalement sur les technologies Microsoft (ADDS, ADCS, RADIUS (NPS), DNS, DFS) et Azure Rédiger et maintenir à jour la documentation technique Participer à la conception et à l’implémentation de nouvelles solutions d’infrastructure Migrer des environnements existants vers Microsoft Azure Automatiser les tâches d’administration système Contribuer à l’amélioration continue des processus et des outils Assurer une veille technologique sur les technologies en place
Freelance

Mission freelance
POT9074 - Un Concepteur et développeur Python, Angular, AWS Sur Bordeaux

Almatek
Publiée le
Python

6 mois
Bordeaux, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients ,Un Concepteur et développeur Python, Angular, AWS Sur Bordeaux Description détaillée : Pour un client majeur ,expertise autour des solutions Python, Angular, AWS pour le cadrage, la conception, la réalisation, l'intégration, et l'exploitation d'applications dans un environnement DevOps et Agile. Il est également attendu l'accompagnement de la squad pour les enjeux techniques et d'architecture des applications. Compétences techniques Python - Expert - Impératif Angular - Expert - Impératif AWS - Expert - Impératif Indus DevOps & IA - Expert - Impératif Le livrable est: Expertise, Conception, Réalisation, Accompagnement Définition du profil: À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. En générale, nécessite un minimum de + de 10 ans d'expérience
CDD
CDI
Freelance

Offre d'emploi
Chef de projet technique création d'un portail IA

KEONI CONSULTING
Publiée le
Azure
Python
RAG

18 mois
20k-60k €
100-550 €
Paris, France
Contexte du besoin : Le client cherche à structurer ses projets de valorisation des données et d’innover au travers de l’accès à différentes IA. L’équipe Gouvernance et mise en oeuvre de l'IA, est à ce titre, en charge de la mise en œuvre. l’équipe Gouvernance et mise en oeuvre de l'IA est en charge : - de gouverner l’utilisation des IA au sein de l’entreprise - de définir une stratégie d’utilisation des IA génératives en fonction des risques ou de contraintes portées par les données sources - d’optimiser les coûts d’utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) - de mettre en place une chaîne CI/CD des projets IA MISSIONS Au sein de l’équipe ""Gouvernance et Mise en oeuvre de l'IA"" composée de 6 personnes, l'assistance technique a pour objectifs d'effectuer la maintenance corrective et évolutive du portail IA . Une bonne partie de nos utilisateurs étant non techniques et peu familiarisés avec l'IA, il lui sera demandé d'aider à la réalisation ou à la mise au point des prompts à partir des besoins exprimés par les utilisateurs. Il sera amené à prendre en charge les tickets d'incidents ou d'assistance de niveau 1 (voire 2 selon profil) aux utilisateurs du portail. Cette mission pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées. Un bon relationnel est indispensable afin de savoir prêter assistance à utilisateurs non technique, notamment en sachant adapter son discours et aider à la rédaction de la documentation. TACHES - La maintenance adaptative et corrective de la partie Front du portail IA : o en mettant à jour ou en améliorant le catalogue d’assistant IA existant en fonction des besoins utilisateurs o en proposant des pistes d'améliorations à apporter aux IHM pour améliorer l'expérience utilisateur - La maintenance corrective de la partie Back du portail IA permettant : o la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accès o la maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateurs o la maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiers - La réalisation d’assistants IA préconfigurés en fonction des types de besoins remontés par les ambassadeurs IA et les utilisateurs non techniques o en réalisant des assistants IA à partir d'expressions de besoins fournis o en apportant des améliorations à l'ingestion de documents ou de bases de connaissances afin d'améliorer la qualité des réponses en sortie des assistants ou agents IA o en proposant des améliorations des prompts utilisateurs pour améliorer la précision du résultat ou diminuer les coûts - L'assistance technique et la résolution d'incidents en cas de remontée de dysfonctionnements de la plateforme (support niveau 1 & 2 selon profil) o en analysant la cause du dysfonctionnement à partir des logs applicatives (avec escalade vers les autres membres de l'équipe au besoin) o en proposant des mises à jour du parcours d’accueil et d'accompagnement des utilisateurs afin de limiter les causes de remontées des utilisateurs o la mise à jour de la FAQ en fonction des retours des utilisateurs" PROFIL : Une expérience significative d'environ 6 mois de RAISE, ou de sa stack applicative, est un prérequis indispensable au démarrage de la mission (Python, React, Langchain, LangGraph, LangFuse, FastAPI, Celery/Redis, RAGAS, Docling (PDF/OCR), Docker)
CDI
Freelance

Offre d'emploi
Data Engineer Snowflake Sénior (H/F)

Panda Services
Publiée le
Apache Airflow
Azure
CI/CD

6 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Data Engineer Snowflake Sénior, pour l'un de ses clients basé à Paris. Localisation : Paris Contexte de la mission Dans le cadre du renforcement de notre équipe data, nous recherchons un Data Engineer expérimenté pour intervenir sur la conception et l’optimisation de pipelines de données au sein d’une architecture moderne orientée cloud. 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables Modéliser et structurer les données dans Snowflake Assurer l’intégration et la transformation des données via Dataiku Optimiser les performances et les coûts des traitements de données Mettre en place des bonnes pratiques de qualité, gouvernance et sécurité des données Collaborer avec les équipes Data Science, BI et métiers Participer à l’industrialisation des workflows data 🛠️ Compétences techniques requises Excellente maîtrise de Snowflake (data warehouse cloud) Expérience confirmée sur Dataiku (DSS) Bonne maîtrise de SQL et des concepts de modélisation de données Expérience avec des outils ETL / ELT Connaissance des environnements cloud (AWS, Azure ou GCP) Maîtrise de Python appréciée Expérience en CI/CD et data pipelines (Airflow, dbt est un plus) 👤 Profil recherché Minimum 7 ans d’expérience en Data Engineering Forte capacité d’analyse et de résolution de problèmes Autonomie et proactivité Bon relationnel et capacité à travailler en équipe Expérience en environnement agile
Freelance

Mission freelance
Développeur Infrastructure / DevOps – Plateforme Data (H/F)

Pickmeup
Publiée le
Azure
Kubernetes
Terraform

2 ans
500-600 €
75015, Paris, Île-de-France
🏢 Contexte Au sein d’une organisation publique innovante spécialisée dans la gestion et la valorisation de données à grande échelle , vous rejoignez la direction technique en charge de la conception, de l’implémentation et de la maintenance d’une plateforme Data sécurisée. Vous intégrerez une équipe technique dédiée à l’infrastructure, évoluant dans un environnement agile et collaboratif, en interaction avec des profils Data, Produit et Ops. La plateforme repose sur des technologies cloud modernes et des pratiques d’ Infrastructure as Code dans un contexte exigeant en matière de sécurité. 🚀 Missions En tant que Développeur Infrastructure / DevOps, vous interviendrez sur : 🔧 Développement & automatisation Développement et maintenance de l’infrastructure as code Automatisation des déploiements cloud à grande échelle Intégration de composants techniques au sein d’environnements Kubernetes ⚙️ Plateforme & performance Déploiement et maintenance de composants applicatifs et techniques Contribution à la stabilité, performance et évolutivité de la plateforme Collaboration avec les équipes Data pour répondre aux besoins métiers 🔐 Sécurité & bonnes pratiques Application des standards de sécurité et conformité Participation aux évolutions d’architecture Veille technologique et amélioration continue 📚 Documentation & collaboration Rédaction et mise à jour de la documentation technique Participation aux échanges techniques et partage de bonnes pratiques 🛠️ Environnement technique Cloud : Azure Infrastructure as Code : Terraform, Terragrunt, Packer, Ansible Conteneurisation : Kubernetes, Docker, Helm Scripting : Bash, Python Outils : Git, CI/CD, GitLab Data tools : Jupyter, Spark, PostgreSQL
CDI
Freelance

Offre d'emploi
Tech Lead Python- IAGen (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre de l’accélération de ses capacités en IA, notre client renforce son architecture autour de l’ IA générative . Projet avec des enjeux forts autour de : RAG (Retrieval-Augmented Generation) industrialisation de modèles GenAI scalabilité des solutions IA Missions : Piloter les projets de bout en bout (conception → prod) Driver les sprints (organisation, tickets, priorisation) Encadrer et faire monter en compétence les développeurs Définir et porter l’architecture backend IA Contribuer aux développements Python complexes Garantir les bonnes pratiques (code, perf, scalabilité) Compétences techniques Python (expert) IA générative (expérience industrielle obligatoire ) AWS (Lambda, Bedrock, SageMaker…) RAG / LLM / NLP Architecture backend & systèmes scalables
Freelance
CDD

Offre d'emploi
Directeur de mission (H/F)

SMARTPOINT
Publiée le
AWS Cloud
Cognos
Oracle

6 mois
85k-90k €
700-800 €
Île-de-France, France
Dans le cadre du renforcement de sa gouvernance data et de l’optimisation de ses plateformes Cloud, notre client recherche un Lead DataOps & Architecte Data/Cloud AWS . Vous interviendrez en support direct du responsable de la cellule DataOps pour structurer, piloter et faire évoluer les architectures data, tout en garantissant leur performance, leur conformité et leur optimisation des coûts (FinOps). Vos missions Assister le responsable dans l’animation et le pilotage de l’équipe DataOps Réaliser le cadrage et les études des nouveaux projets data Définir et promouvoir les patterns d’architecture Data & Cloud Concevoir des architectures robustes et scalables sur AWS Piloter l’exploitation, les migrations techniques et les transformations de plateformes Mettre en œuvre et animer la démarche FinOps (optimisation des coûts, de la conformité logicielle et de la performance du socle technique) Assurer la conformité logicielle et technique du socle Conduire des audits techniques et de performance Accompagner les équipes sur les bonnes pratiques DataOps et Cloud Livrables attendus Dossiers d’études (8 à 10 par an) Comptes-rendus d’audit (6 à 8 par an) Pilotage de migrations majeures (3 à 5 par an) Bilans de conformité (2/an) Bilans d’optimisation des coûts / FinOps (2/an)
Freelance

Mission freelance
SRE DevOps / AI Automation (H/F)

HOXTON PARTNERS
Publiée le
Agent IA
AWS Cloud
DevOps

9 mois
Paris, France
Dans le cadre d’un programme stratégique au sein d’un grand groupe du secteur du luxe, nous recherchons un consultant senior SRE DevOps disposant d’une forte expertise sur AWS et d’une expérience concrète dans l’automatisation de la remédiation d’incidents via des agents IA. La mission s’inscrit dans un environnement exigeant, orienté fiabilité, performance et industrialisation des opérations. Le consultant interviendra sur des sujets de Site Reliability Engineering, d’automatisation avancée, d’observabilité et d’optimisation de la production, avec une forte dimension innovation autour des LLM et des agents autonomes. Les responsabilités incluent notamment : contribuer à la fiabilité, à la stabilité et à la performance des plateformes cloud AWS ; concevoir et mettre en œuvre des mécanismes de remédiation automatique d’incidents ; intégrer des agents IA dans les workflows d’exploitation, de troubleshooting et de runbooks ; participer à la mise en place de chaînes d’automatisation autour du monitoring, de l’alerting et de la gestion des incidents ; travailler sur des architectures et outils liés à Kubernetes, Docker, Terraform, Ansible et Helm ; collaborer avec les équipes infrastructure, applicatives, sécurité et opérations pour améliorer la résilience globale des services ; contribuer à l’observabilité et à l’exploitation des données issues d’outils tels que Datadog, Dynatrace, New Relic ou Elastic ; accompagner l’industrialisation des pratiques DevSecOps, de la gestion des accès, des secrets et des sujets IAM.
Freelance

Mission freelance
Senior IT Security officer / Cloud

NEXORIS
Publiée le
AWS Cloud
Cybersécurité
DORA

1 an
600-750 €
Paris, France
Notre client, secteur des marchés financiers, recherche un IT Security Officer (H/F) dans le d'une longue mission. Renforcement de la posture de cybersécurité opérationnelle (analyse de risque, protection des accès, tests de sécurité) et accompagnement à la migration vers le cloud en conformité avec les exigences réglementaires. - Réaliser des analyses de risques cyber sur les projets IT et métiers (CIAT) - Participer à la mise en œuvre des mesures de sécurité opérationnelle (pentest, IAM, PAM, secret management, KMS...) - Suivre et coordonner les projets de migration vers le cloud (AWS et OVH), en lien étroit avec l’architecte sécurité -Intégrer les exigences réglementaires (LPM, DORA, NIST) dans les processus et projets - Produire la documentation sécurité attendue (politiques, procédures, rapports de risques) - Collaborer avec la deuxième ligne de défense pour assurer une gouvernance conforme aux standards en vigueur - Challenger les pratiques existantes et sensibiliser les parties prenantes aux enjeux de cybersécurité
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance
CDI

Offre d'emploi
DBA SQL Server

Gentis Recruitment SAS
Publiée le
Architecture
Azure
Azure DevOps

12 mois
40k-45k €
400-550 €
Hauts-de-Seine, France
DBA SQL Server / Azure (H/F) Description du poste Dans le cadre du renforcement d’une équipe infrastructure orientée cloud, nous recherchons un DBA SQL Server expérimenté pour intervenir sur l’architecture, le déploiement et l’exploitation des environnements bases de données dans un contexte hybride Cloud / On-Premise . Vous intégrerez une équipe DBA et collaborerez étroitement avec les équipes développement, infrastructure et plateforme afin d’assurer la performance, la disponibilité et la sécurité des bases de données. Principales responsabilités Assurer l’administration et l’exploitation des bases de données Microsoft SQL Server Intervenir sur l’ensemble du cycle de vie : architecture, build, run et optimisation Participer à la conception et au déploiement de solutions bases de données dans le cloud Gérer les incidents, demandes et évolutions liés aux infrastructures bases de données Accompagner les équipes de développement dans l’optimisation et la résilience des bases Mettre en œuvre des architectures haute disponibilité (clusters, failover) Concevoir et documenter les architectures techniques ( HLD / LLD ) Déployer et configurer les infrastructures bases de données Automatiser les déploiements et opérations d’administration Participer aux projets d’évolution de l’infrastructure et à la transformation cloud Collaborer avec les équipes infrastructure sur les standards et bonnes pratiques Contribuer aux activités de monitoring, performance et sécurité Participer aux astreintes techniques (rotation) Environnement technique Microsoft SQL Server Microsoft Azure (PaaS / IaaS) Amazon Web Services (AWS) Environnements Windows Server Architecture hybride Cloud / On-Premise Compétences techniques Expertise sur Microsoft SQL Server Expérience avancée en administration et exploitation SQL Server Maîtrise des architectures haute disponibilité (clusters, failover, Always On) Expérience sur Azure SQL Database et Azure SQL Managed Instance Expérience des environnements Cloud : Microsoft Azure (principal) Amazon Web Services (secondaire) Automatisation via PowerShell, Bash ou Python Mise en œuvre de CI/CD et déploiements via Azure DevOps Bonne connaissance des environnements Windows Server Expérience des outils de monitoring (ex : Zabbix , Prometheus , Grafana ) Maîtrise de la sécurité des bases de données (rôles, audit, chiffrement) Automatisation de la création et configuration d’instances SQL Server Gestion de la réplication et des architectures Always On Compétences comportementales Forte capacité d’ analyse et de résolution de problèmes Capacité à proposer des solutions techniques adaptées Bon niveau de communication et de synthèse Capacité à travailler en collaboration avec plusieurs équipes Autonomie dans la gestion des activités Anglais professionnel Profil recherché Expérience significative en tant que DBA SQL Server Niveau confirmé à senior Expérience dans des environnements cloud et infrastructures critiques
Freelance
CDI

Offre d'emploi
OPS / DevOps Sénior (H/F)

WINSIDE Technology
Publiée le
Ansible
AWS Cloud
Datadog

1 an
40k-45k €
400-420 €
Lille, Hauts-de-France
Contexte de la mission : Dans le cadre d’une forte augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète destinée à accueillir un projet stratégique, nous recherchons un OPS / DevOps sénior (H/F) pour renforcer une équipe en charge de l’exploitation d’un périmètre fonctionnel critique. La mission s’inscrit dans un environnement cloud, industrialisé et agile , avec un fort enjeu de qualité, de performance et de sécurité. 📍 Localisation : Lille (59800) 📅 Durée : 1 an renouvelable 🏠 Télétravail : 3 jours/semaine Description du poste : En tant qu’OPS / DevOps sénior, vous intervenez sur l’ensemble du cycle d’exploitation et d’industrialisation des applications et infrastructures. À ce titre, vous : Installez, mettez en production, administrez et exploitez les moyens informatiques Garantissez le bon fonctionnement du système d’information en assurant le maintien en conditions opérationnelles et l’évolution des infrastructures et outils Diffusez et développez une culture DevOps au sein de l’équipe Accompagnez les équipes de développement dans l’intégration et le déploiement des solutions dans un système complexe Favorisez l’autonomie de l’équipe et l’automatisation des processus Travaillez dans une démarche agile et d’amélioration continue Missions et livrables : Vous serez notamment en charge de : Concevoir et construire l’infrastructure Cloud AWS Architecture ROSA (Red Hat OpenShift Service on AWS) Oracle, S3, ordonnanceur Mettre en place la chaîne CI/CD complète GitLab CI, Ansible, Terraform Réaliser les tests de résilience de l’application Documenter l’architecture et transférer les compétences pour le RUN Identifier et mettre en place les métriques de supervision et d’observabilité Assurer le RUN de l’application : Mise en production Supervision Debug Gestion des incidents Accompagner les équipes de support dans l’analyse et la résolution des incidents Concevoir et développer les outils DevOps adaptés au produit Être référent sur : L’infrastructure Les plateformes applicatives L’usine logicielle L’industrialisation des déploiements Compétences techniques : Maîtrise des outils CI/CD (GitLab CI, Ansible) Conteneurisation et orchestration : Docker Kubernetes ROSA Bonne connaissance des services AWS Automatisation : Terraform Scripts Monitoring & observabilité : Datadog Bases de données : Oracle (RDS) DocumentDB Pratiques DevOps et/ou Lean 👉 La connaissance du produit IBM Maximo est un atout important . Soft skills : Communication claire, structurée et pédagogique Fort esprit d’analyse et de résolution de problèmes Force de proposition Expérience confirmée en production et en gestion d’applications critiques Capacité à travailler en équipe et à accompagner la montée en compétences
Freelance

Mission freelance
Expert design système Data viz (H/F) - IDF + Remote

Mindquest
Publiée le
Azure
Microsoft Power BI

3 mois
330-490 €
Roissy-en-France, Île-de-France
Mission Cadrage & compréhension des besoins Recueillir, analyser et qualifier les besoins métiers et enjeux de pilotage Identifier les indicateurs clés (KPI) nécessaires à la prise de décision Formaliser la définition fonctionnelle et construire un dictionnaire de KPI Conception & Design DataViz Traduire les besoins en concepts de visualisation et design Définir : Scénarisation des KPI Hiérarchisation visuelle (typographie, graphiques…) Filtres interactifs et expériences utilisateur Concevoir le “storytelling” des dashboards (messages clés, parcours utilisateur) Produire maquettes, reportings et outils de pilotage Design System & standardisation Faire évoluer, enrichir et standardiser le Design System DataViz Structurer : Les éléments de design (couleurs, pictogrammes, composants visuels…) Les composants Power BI (templates, visuels, dashboards) Maintenir et piloter les bibliothèques de design (Figma & Power BI) Data & automatisation Participer à la préparation des données Mettre en place des logiques d’automatisation des reportings Collaborer avec les équipes data (Azure, Databricks…) Pilotage & delivery Piloter les projets de conception et garantir la qualité des livrables Rédiger les cahiers des charges et spécifications fonctionnelles / techniques Assurer le suivi des projets (planning, risques, priorisation…) Être garant de la satisfaction métier
Freelance

Mission freelance
Python Software Engineer Senior

Aneo
Publiée le
AWS Cloud
Python
Ray

7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
2201 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous