Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 477 résultats.
CDI
Freelance

Offre d'emploi
Architecte Cloud GCP

KLETA
Publiée le
Google Cloud Platform (GCP)

3 ans
Paris, France

Missions principales Concevoir et déployer la Landing Zone GCP en respectant les bonnes pratiques Google Cloud et les standards de sécurité. Définir et implémenter l’architecture cible : Organisation & Gouvernance : hiérarchie des projets, IAM, gestion des rôles et permissions. Sécurité : politiques de sécurité, gestion des identités, conformité (CIS, ISO, RGPD). Réseaux : VPC, interconnexions hybrides (VPN, Interconnect), firewall, segmentation. Observabilité : logging, monitoring, alerting (Cloud Logging, Cloud Monitoring). FinOps : mise en place des bonnes pratiques de suivi et d’optimisation des coûts. Automatisation & IaC : Terraform, GitOps, CI/CD pour la gestion des ressources. Assurer la mise en place des services clés : compute, stockage, bases de données, data/AI. Travailler en collaboration avec les équipes Sécurité, Réseau, DevOps et Data pour aligner les besoins business et techniques. Accompagner et former les équipes internes dans l’adoption de GCP. Être force de proposition sur les choix technologiques et les évolutions de la plateforme.

Freelance

Mission freelance
Devops / IaC - GCP h/f

Freelance.com
Publiée le
Ansible
DevOps
Google Cloud Platform (GCP)

3 mois
530-670 €
Saint-Ouen-l'Aumône, Île-de-France

Construire et animer la gouvernance IaC avec les plateformes métiers et zones : réunions, documentation, suivi des priorités, décisions et KPIs Créer des synergies techniques entre les équipes applicatives et l’équipe infrastructure cloud sur les bonnes pratiques IaC Mettre en place et gérer les projets liés aux standards IaC : planification, suivi budgétaire, coordination agile, définition et suivi des KPIs pour garantir le développement et l’adoption Collaborer avec le Cloud Scrum Master afin d’assurer la cohérence des epics dans la roadmap Cloud

CDI

Offre d'emploi
Ingénieur SysOps Cloud GCP

AGH CONSULTING
Publiée le
Cloud
Confluence
DNS

40k-65k €
Meudon, Île-de-France

Nous recherchons pour l'un de nos clients un(e) Ingénieur(e) SysOps Cloud Public qui aura la responsabilité d’assurer le MCO (Maintien en Condition Opérationnelle), la sécurisation et l’optimisation des ressources déployées sur GCP. A ce titre, vos principales missions seront les suivantes : • Administrer et exploiter les environnements GCP. • Gérer les incidents et assurer les astreintes de niveau 2/3. • Optimiser l’usage des ressources GCP (FinOps, performances). • Déployer et maintenir l’automatisation de l’infrastructure (Terraform, CI/CD). • Assurer le durcissement sécurité des environnements et comptes GCP. • Mettre en place et exploiter la supervision centralisée (Cloud Logging, Monitoring). • Rédiger la documentation d’exploitation et former les équipes internes

CDI
CDD

Offre d'emploi
Développeur BI Senior (MSBI/GCP)

Hexateam
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
MSBI

12 mois
Paris, France

Contexte: Nous recherchons un Data Analyst / Développeur BI Senior afin de renforcer l’équipe existante. Le profil attendu doit avoir une expertise confirmée dans les environnements GCP et Power BI Online, avec une forte capacité à produire des développements BI robustes, scalables et maintenables. Missions principales: - Réaliser les reportings et tableaux de bord. - Assurer la maîtrise et la modélisation des données. - Concevoir, développer et maintenir des solutions BI performantes, optimisées et réutilisables. - Réaliser des tests fonctionnels et des recettes métiers. - Garantir l’application des bonnes pratiques de développement BI. - Produire la documentation technico-fonctionnelle en fin de sprint. - Conseiller et accompagner les équipes métiers (devoir de conseil). - Collaborer étroitement avec le Product Owner et l’équipe de développement. - Concevoir des maquettes en lien avec le Product Owner. - Participer à l’assistance utilisateurs (formation, transmission de connaissances, support niveau 3). - Débloquer et accompagner les autres développeurs si nécessaire. Environnement technique & compétences attendues Environnement GCP (Google Cloud Platform) : - BigQuery - PySpark - Dataflow - Airflow / DAG - Cloud Storage - Administration de plateforme (IAM, gestion des droits, monitoring, etc.) BI & Data Visualisation : - Power BI Desktop & Online - Modélisation BI - DevOps / CI/CD - Bonnes pratiques BI (scalabilité, performance, maintenabilité). Profil recherché Expérience : minimum 7 ans dans le développement BI et l’exploitation de données. Compétences techniques : maîtrise confirmée de GCP et Power BI Online, avec une bonne pratique des outils de traitement et d’orchestration des données (BigQuery, PySpark, Airflow, Dataflow).

Freelance

Mission freelance
Consultant sécurité Cloud GCP

SILAMIR
Publiée le
Automatisation
AWS Cloud
CI/CD

12 mois
460-680 €
Charenton-le-Pont, Île-de-France

Nous recherchons un consultant expérimenté spécialisé dans la sécurité du cloud Google Cloud Platform (GCP) , couvrant les services PaaS, IAM, l’automatisation et les environnements CI/CD. Vos principales missions seront : Évaluer les services GCP sous l’angle de la sécurité, en conformité avec les règles BPCE IT , et identifier les points de contrôle nécessaires. Implémenter les contrôles de sécurité sur différents outils de sécurité (CSPM, Sentinel HashiCorp, outils de gouvernance, …). Qualifier et analyser les évolutions des services GCP, notamment Private Service Connect , et proposer des solutions adaptées en cas de problématiques de sécurité. Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations de sécurité. Participer à la gestion des incidents et assurer le suivi des non-conformités.

Freelance

Mission freelance
Cloud engineer / Architecte (profil uniquement basé à Lille)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Google Cloud Platform (GCP)
Kubernetes

1 an
400-530 €
Lille, Hauts-de-France

Secteur retail Contrainte forte du projet : Evoluer dans un environnement agiles au sein de plusieurs équipes produit Description détaillée : A la recherche d'un Cloud Engineer expérimenté ayant participé à des projets de modernisation d'outils / pratiques et de migration Cloud : - automatisation d'outils et de process, de création / évolution de pipelines CI/CD - déploiement d’environnements applicatifs complets dans le Cloud - accompagnement des équipes sur des sujets DevOps / techniques - formation/acculturation sur les bonnes pratiques. Environnement cloud GCP / Kubernetes

Freelance

Mission freelance
Data Scientist GCP adtech

Cherry Pick
Publiée le
Data science
Google Cloud Platform (GCP)

3 mois
520-540 €
75000, Paris, Île-de-France

En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur des medias Description 🎯 Contexte du projet L’équipe BI, Analytics & Data Science (10 personnes : Data Analysts, Data Scientists, ML Engineers) travaille en transverse pour l’ensemble des marques et métiers du groupe (abonnement, vente au numéro, régie publicitaire…). L’activité couvre un spectre large : analyses ad hoc, dashboards, projets data science et IA. La stack technologique est entièrement sur Google Cloud Platform (BigQuery, Airflow, Vertex AI). Face à la montée en charge et à des besoins spécifiques en AdTech (audience, publicité digitale, personnalisation), l’équipe recherche un Data Scientist confirmé pour renforcer ses capacités sur la fin d’année. 🛠️ Missions principales Intervenir sur des projets AdTech : audience, ciblage publicitaire, recommandations de contenu, personnalisation, pricing. Gérer des projets end-to-end : Collecte et préparation des données, Feature engineering et modélisation, Déploiement et mise en production des modèles (Vertex AI, Airflow). Développer et industrialiser des modèles de machine learning prédictif (pas de focus sur l’IA générative). Collaborer avec les équipes Data, BI, régie publicitaire et métiers internes. Produire des analyses et recommandations pour soutenir la stratégie publicitaire et marketing.

Freelance
CDI

Offre d'emploi
Consultant MLOps GenAI

UCASE CONSULTING
Publiée le
DBT
Google Cloud Platform (GCP)
IA Générative

6 mois
40k-65k €
400-620 €
Paris, France

Contexte Dans le cadre du renforcement de notre pôle Data & IA, nous recherchons un(e) Consultant(e) confirmé(e) Data Engineer / MLOps spécialisé(e) GenAI . Le profil idéal se situe à mi-chemin entre le Data Engineering et le MLOps , avec une solide expertise sur GCP, une appétence pour la GenAI , et la capacité à résoudre des problématiques de production . Missions principales Concevoir, industrialiser et maintenir des pipelines data sur GCP (BigQuery, Dataflow, Pub/Sub). Mettre en place et optimiser des modèles et services IA/GenAI via Vertex AI . Assurer l’ industrialisation et la mise en production de modèles (CI/CD, monitoring, optimisation). Développer en Python des outils et composants réutilisables pour les projets Data/IA. Implémenter des transformations et orchestrations de données avec DBT . Diagnostiquer et résoudre les incidents de production liés aux pipelines, modèles ou API IA. Collaborer avec les équipes Data Science, DevOps et métiers pour assurer la qualité, robustesse et performance des solutions. Compétences techniques recherchées Langages : Python (avancé), SQL. Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Vertex AI). Data Engineering : DBT, orchestration (Airflow, Cloud Composer). MLOps / GenAI : Vertex AI pipelines, modèles LLM/GenAI, monitoring et déploiement en prod. CI/CD : GitLab CI/CD, Terraform, Docker, Kubernetes. Observabilité : Logging, monitoring, optimisation de pipelines et modèles en prod. Soft skills Esprit analytique et orienté résolution de problèmes . Capacité à travailler en transverse avec des équipes Data Science, IT et métiers. Autonomie, proactivité et rigueur , avec une approche pragmatique. Intérêt marqué pour les dernières évolutions IA et GenAI . Profil recherché Expérience : 3 à 6 ans en Data Engineering et/ou MLOps, avec une exposition significative à GCP. Bonus : une première expérience réussie sur des projets GenAI (LLM, Vertex AI, APIs d’IA générative).

Freelance

Mission freelance
Data Analyst GCP (H/F)

Insitoo Freelances
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Microsoft Power BI

2 ans
380-430 €
Hauts-de-France, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analyst GCP (H/F) à Hauts-de-France, France. Les missions attendues par le Data Analyst GCP (H/F) : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers

Freelance
CDI

Offre d'emploi
Architecte Cloud GCP - LYON

KLETA
Publiée le
Architecture
Google Cloud Platform (GCP)

3 ans
Lyon, Auvergne-Rhône-Alpes

Missions principales Définir et mettre en œuvre les architectures Cloud sur GCP (Compute Engine, GKE, Cloud Run, Cloud Storage, VPC). Apporter une expertise sur l’industrialisation des environnements via Terraform et GitOps. Accompagner les équipes produits sur la mise en place de pipelines CI/CD multicloud incluant GCP. Intégrer les pratiques sécurité (IAM, Secret Manager, Security Command Center). Contribuer à la stratégie de migration et au design de zones d’hébergement de confiance. Standardiser et documenter les bonnes pratiques d’usage de GCP.

Freelance

Mission freelance
Expert sécurité cloud GCP/ IAM GCP/ SECURITE, RESEAUX / TERRAFORM / PYTHON (H/F)

Octopus Group
Publiée le
Google Cloud Platform (GCP)
IAM
Python

1 an
560-650 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire un expert sécurité GCP afin de les accompagner dans l'évaluation, la mise en œuvre et l'optimisation de leurs pratiques de sécurité Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Freelance

Mission freelance
Consultant SRE

ESENCA
Publiée le
CI/CD
Datadog
Github

3 mois
400-450 €
Lille, Hauts-de-France

Votre rôle couvrira à la fois des activités opérationnelles (assurer le run, automatiser les infrastructures, investiguer et résoudre les anomalies complexes) et des activités d’accompagnement (diffusion des pratiques SRE, coaching, transfert de compétences, participation à la communauté Ops cross platform Excellence Opérationnelle / SRE). Vous apporterez un regard critique et pragmatique, en challengeant les pratiques existantes et en proposant des solutions simples et efficaces, adaptées aux besoins des équipes et aux enjeux de croissance de la plateforme. Une bonne connaissance du développement sera essentielle pour collaborer efficacement avec les équipes produit, contribuer à la mise en place de SLO et d’Error Budgets, et soutenir la réduction du toil. MISSIONS PRINCIPALES : - Automatiser et industrialiser la mise en place et l’administration des infrastructures. - Accompagner la croissance de l’utilisation des produits et optimiser leur performance et leur résilience. - Faire évoluer et documenter la chaîne de tooling (déploiement, supervision, observabilité, développement). - Contribuer aux projets et initiatives transverses de la communauté Ops/SRE avec une approche orientée résultats. - Optimiser les coûts des infrastructures tout en garantissant la disponibilité et la fiabilité des services. - Analyser et améliorer en continu l’infrastructure (monitoring, performance, optimisation). - Investiguer et corriger les anomalies techniques complexes (root cause analysis). - Accompagner les équipes de développement et opérationnelles dans l’adoption, la mise en œuvre et l’animation des pratiques SRE (SLO, Error Budget, post-mortems, réduction du toil). - Participer activement à la vie de la communauté Ops cross platform en partageant les bonnes pratiques et en renforçant l’autonomie des différents acteurs.

Freelance

Mission freelance
Data Engineer IA GCP

Cherry Pick
Publiée le
Google Cloud Platform (GCP)
Python

3 mois
580 €
75000, Paris, Île-de-France

🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.

Freelance

Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP

PROPULSE IT
Publiée le
Azure
Cloud
Infrastructure

24 mois
350-700 €
Paris, France

o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.

Freelance
CDI

Offre d'emploi
Développeur Python (H/F) (38)

Aleysia
Publiée le
AWS Cloud
Azure DevOps
Django

1 an
Grenoble, Auvergne-Rhône-Alpes

🔎 Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! ⬇️ 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe

2477 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous