Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 465 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur.e Cybersécurité

Atlanse
Publiée le
CyberSoc
Cybersécurité
IOC

1 an
38k-50k €
300-350 €
Courbevoie, Île-de-France
En tant qu’ingénieur.e Cybersécurité, vous intervenez dans un contexte de renforcement des dispositifs de surveillance et de réponse aux incidents, afin de faire face à l’intensification des menaces cyber. Missions Opérationnel – Appui au SOC/CSIRT et gestion des incidents · Soutenir les équipes SOC et CSIRT pour détecter, analyser et répondre aux incidents · Surveiller les flux d’alertes et enrichir les investigations avec des indicateurs de compromission (IoCs) · Fournir des analyses techniques sur les attaques en cours (malwares, phishing, ransomware, etc.) · Contribuer à l’identification, la qualification et la remédiation des incidents en collaboration avec les équipes opérationnelles Stratégique – Renseignement sur la menace et posture de cybersécurité · Assurer une veille proactive sur les menaces émergentes (OSINT, dark web, CERT, partenaires) · Analyser les tactiques, techniques et procédures (TTPs) des groupes cybercriminels et APT · Produire et diffuser des rapports de renseignement (bulletins de menace, notes d’analyse) pour la direction et les métiers · Contribuer à l’élaboration de la stratégie de cybersécurité et à la sensibilisation des collaborateurs
Freelance
CDI

Offre d'emploi
Chef de Programme Data & IA – Product Owner Socle Data & IA

VISIAN
Publiée le
Azure
Azure Data Factory
Data quality

1 an
40k-45k €
400-610 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation d’un socle Data & IA et de la mise en place d’un modèle de décentralisation gouvernée, le Chef de Programme Data & IA intervient en tant que référent transverse sur la plateforme Data & IA. Il est garant de la cohérence entre les enjeux de modernisation technique, d’adoption métier et de gouvernance de la donnée, dans un environnement Data Platform à forte ambition IA. Missions principales 1. Pilotage du programme Data & IA Définir et piloter la roadmap du socle Data & IA Prioriser les initiatives métiers et techniques Participer aux arbitrages d’investissements et au séquencement des chantiers Assurer la cohérence avec le modèle de décentralisation et la stratégie IA 2. Rôle de Product Owner plateforme Recueillir et prioriser les besoins des utilisateurs (métiers, équipes Data & IA, etc.) Piloter le backlog de la plateforme Structurer les releases et le capacity planning Suivre les KPIs de performance (qualité, adoption, stabilité, time-to-market) 3. Chantiers structurants Migration vers une architecture Data Lakehouse (type Databricks / Unity Catalog) Mise en place de la Data Quality industrialisée Déploiement de la Data Observability end-to-end Modernisation de l’offre de service de la plateforme Data 4. Coordination Data & IA Assurer l’interopérabilité entre Data, ML et IA générative Structurer la collaboration entre équipes DataOps et MLOps Préparer la plateforme aux usages IA avancés (exposition Data Products, APIs, etc.) 5. Animation et structuration Clarifier les rôles et responsabilités (RACI) Améliorer les pratiques agiles et les rituels de pilotage Accompagner la montée en maturité des équipes
CDI

Offre d'emploi
ARCHITECTE PORTAIL IA

GROUPE ALLIANCE
Publiée le
Docker
FastAPI
Github

80k-85k €
75001, Paris, Île-de-France
ACCROCHE SI TU SAIS QUE L’INTELLIGENCE NE SE LIMITE PAS QU’À L’HUMAIN, CETTE ANNONCE EST FAITE POUR TOI... CE QUE TU RECHERCHES : Concevoir et structurer des architectures IA robustes Travailler sur des projets d’envergure en intelligence artificielle Relever des défis techniques dans des environnements complexes et innovants Tu veux être au cœur des décisions stratégiques et façonner l’IA de demain Rejoins une équipe où ton expertise en architecture IA sera essentielle. Au sein d’un acteur majeur du secteur Protection Sociale, tu participeras aux eévolutions fonctionnelles à apporter à l'architecture technique de la partie Front du portail IA permettant :- un accès sécurisé au catalogue d’assistant IA existant en fonction du profil de l’utilisateur- un parcours d’accueil pour les nouveaux utilisateurs ainsi qu’un accès à des modules de formation de type webinaire- un accès à une FAQTu conçois les évolutions fonctionnelles à apporter à l'architecture technique de la partie Back du portail IA permettant :- la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accès- la maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateurs- la maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiersTu conçois les évolutions fonctionnelles à apporter à l'architecture technique des mécanismes de RAG de la plateforme :- en concevant les architectures possibles de pipelines d'ingestions optimisés en fonction du type de documents en entrée et de leur volumétrie- en concevant et aidant à maintenir les mécanismes de la plateforme permettant de tracer la qualité des données ingérées- en concevant et aidant à maintenir les mécanismes de contrôles du profil utilisateur et des droits d’accès aux informations restituées par un assistant ou un agent IA- en participant à la définition des besoins en solutions de bases de connaissances spécialisées, externes ou intégrées au portail IA, en définissant le protocole et les mécanismes d'ingestion des mises à jour au fil de l'eau ou à intervalles réguliers.Tu définis ou fais évoluer la chaîne CI/CD permettant de livrer les évolutions du portail IA dans ses quatres environnements (en lien avec les autres équipes en charge de cette problématique à la DSI)- en assurant le paramétrage et la mise en oeuvre de la chaîne sur le cloud AZURE dans une logique DEVOPS- en maintenant à jour la documentation- en sécurisant les mécanismes de tests permettant de valider le déploiement d'une version ou pour garantir le retour arrière en cas de défaut constaté : Définition des architectures IA, tu piloteras Sélection des frameworks et technologies adaptées, tu assureras Déploiement et industrialisation des modèles IA, tu superviseras Optimisation des performances et gestion des ressources, tu garantiras Sécurisation des infrastructures IA, tu renforceras Veille technologique et anticipation des évolutions, tu effectueras Collaboration avec les équipes Data, DevOps et métier, tu animeras QUI TU ES : Diplômé(e) en informatique, intelligence artificielle ou équivalent Tu justifies d’une expérience de 10ans minimum en conception et déploiement d’architectures IA Maîtrise des frameworks IA : Microsoft Azure IA Expertise en cloud computing : SFEIR RAISE (RAG/GenAI), Visual Studio Code avec Github COPILOT, MS OFFICE Copilot, Python, Langchain, Docker + Kubernetes, LiteLLM + LLM AI Foundry, React, Typescript, TanStack, Microsoft AZURE AI Foundry, LangGraph, RAGAS, LangFuse, FastAPI + Celery/Redis, Serveurs MCP, Pipelines CI/CD (GitHub/Azure DevOps), Docker + Terraform, Microsoft AZURE API Management, Microsoft AZURE AI Foundry Maîtrise des problématiques de MLOps et d’industrialisation des modèles IA AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Visionnaire, tu anticipes les évolutions de l’IA et leurs impacts Méthodique, tu structures et documentes tes architectures avec rigueur Pragmatique, tu conçois des solutions adaptées aux besoins métiers Communicant(e), tu sais vulgariser des concepts complexes Curieux(se), tu es en veille permanente sur les dernières avancées IA Collaboratif(ve), tu travailles efficacement avec les équipes Data, DevOps et métier Orienté(e) performance, tu optimises chaque modèle pour maximiser son impact
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer

Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer

3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Freelance

Mission freelance
Ingénieur Système Senior — Active Directory, Azure, PowerShell

AMBITION Technologies
Publiée le
Active Directory
Active Directory Domain Services (AD DS)
Azure

1 an
Paris, France
Au sein du département IT Infrastructure (rattaché au Responsable Systèmes), vous intégrez une équipe en charge du RUN et de projets d'infrastructure Microsoft. Vous assurez le support N3 sur AD DS, AD CS, RADIUS/NPS, DNS, DFS et Azure, rédigez la documentation technique, participez à la conception de nouvelles solutions, migrez des environnements vers Azure et automatisez les tâches d'administration via PowerShell. Poste en hybride : 1 à 2 jours de télétravail par semaine. Secteur : luxe (atout).
CDI

Offre d'emploi
Lead Développeur Java VueJs fulltack Lille

CBTW
Publiée le
Apache Maven
Git
Google Cloud Platform (GCP)

Lille, Hauts-de-France
Chez CBTW, nous recrutons des collaborateurs qui souhaitent avoir un impact technologique durable à l’échelle globale. Nous concevons, implémentons et opérons des solutions technologiques complexes, en nous appuyant sur : Des expertises internationales, Des Service Lines structurées, Des modèles de delivery industrialisés. Pourquoi nous rejoindre ? Projets variés et ambitieux : cloud distribué, automatisation avancée, infrastructures scalables, observabilité à grande échelle, sécurité cloud. Vision internationale avec opportunités d’évolution dans plusieurs pays. Culture collaborative et apprentissage continu : initiative, partage, montée en compétences. Formations et certifications : AWS, Terraform, Kubernetes, CI/CD, sécurité. Communauté Software engineering : experts passionnés, retours d’expérience, labs, partage de bonnes pratiques.
CDI
Freelance

Offre d'emploi
Expert Cloud AWS GCP S3NS

Ela Technology
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
S3NS

1 an
40k-45k €
500-550 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de projets stratégiques de transformation cloud, nous recherchons un Expert Cloud confirmé maîtrisant AWS, GCP et S3NS , capable d’intervenir sur des environnements complexes et à forts enjeux. Vos missions1. Architecture & Stratégie de Migration Cloud Accompagner la migration , l’extension ou la création de nouvelles applications sur le cloud public. Réaliser des études comparatives de scénarios : Cloud Public, SaaS ou Retain (non‑migration). Sélectionner les services cloud les plus pertinents en analysant les gains et impacts. Analyser les impacts sur le RUN et le BUILD : performance, observabilité et exploitation. Animer des workshops de cadrage et de recueil des besoins. Concevoir des architectures cloud multi‑niveaux : Intégration au SI Architecture réseau HLD / LLD Piloter des migrations de région cloud. 2. Acculturation Cloud & Amélioration Continue Apporter une expertise cloud transverse auprès des équipes internes et des partenaires du projet. Diffuser les bonnes pratiques cloud via des actions de sensibilisation et d’animation. Participer activement à la communauté cloud du périmètre.
Freelance
CDI

Offre d'emploi
Devops GCP Terraform

Pickmeup
Publiée le
Google Cloud Platform (GCP)

9 mois
60k-80k €
400-600 €
Paris, France
Notre client est un acteur du paiement digital opérant une plateforme cloud native à forte criticité (disponibilité, sécurité, volumétrie). Dans un contexte de structuration et de montée en charge, il renforce son équipe DevOps sur un environnement full GCP. Description du poste Vous intervenez sur la conception, l’industrialisation et l’exploitation de la plateforme cloud. Vos missions principales : Maintien et évolution de l’infrastructure sur GCP Automatisation via Terraform / Terragrunt Gestion et optimisation des environnements Kubernetes (GKE) Mise en place et amélioration des pipelines CI/CD Suivi de la performance et mise en place du monitoring (Datadog, Prometheus, Grafana) Contribution aux enjeux de sécurité et de fiabilité (SRE)
Offre premium
Freelance

Mission freelance
Business Analyst expérimenté à Vannes

Deodis
Publiée le
Data Engineering
JIRA

36 ans
400-460 €
Vannes, Bretagne
Le projet vise à accompagner le Pôle Produit Risques dans la gestion d'évolutions majeures de produits, notamment dans le cadre d'enjeux réglementaires importants pour 2026. Le Business Analyst sera intégré à une des squads pour travailler en étroite collaboration avec le Product Owner et les équipes IT. Les livrables attendus incluent : Animation d'ateliers de cadrage et rédaction des compte-rendus. Formalisation des besoins utilisateurs dans la backlog Produit (rédaction de récits, organisation d'ateliers d'affinage). Réalisation d'analyses des risques métier (ARM) en lien avec les métiers et les IT. Maintien à jour de la documentation produit métier et fonctionnelle. Support aux pôles utilisateurs pour les supports de conduite du changement. Définition, maintien et application des plans de tests produits. Profil Le profil recherché est celui d'un Business Analyste expérimenté avec une bonne communication et un fort esprit d'équipe, capable de travailler sur des projets importants et challengeant en termes de délais. Les compétences et expériences requises sont : Expérience de l'agilité. Expérience de projets DATA (Puits de données, SID, modélisations et conception d'objets métiers). Expérience de projets "réglementaires" sur les domaines Financiers et Risques (Réformes Bâloises, BCBS239, IFRS9,...). Connaissances environnement DATA (ETL, langage SQL, AB Initio). Maîtrise des outils bureautiques (Excel, Powerpoint). Maîtrise de JIRA Software. Les qualités personnelles attendues sont : Rigoureux, Organisé et pragmatique. Autonome, curieux, volontaire, disponible, et forte capacité d'adaptation. Esprit collectif. Bonne communication (Clarté et synthèse). La mission se déroule à Vannes et nécessite une présence sur site a minima 3 jours par semaine (lundi, mardi et jeudi).
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP - SALESFORCE (450€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)
Salesforce

1 an
40k-45k €
320-440 €
Île-de-France, France
● Formation Bac+5 (école d’ingénieur ou université) orientée informatique, ou expérience équivalente. ● Bonne connaissance de l'écosystème Salesforce (modèles de données Marketing, Financial Cloud, Data Cloud). ● Ingénierie Data : Maîtrise de SQL et de Python pour le traitement de flux. ● API & Automation : Expérience dans la consommation d’API et l'utilisation d'orchestrateurs (Airfl ow/Composer). ● Soft Skills : Rigueur méthodologique, capacité à comprendre les processus métier bancaires et esprit d'équipe. GCP/DBT Livrables : ● Connecteurs API opérationnels et monitorés. ● Scripts de transformation et de chargement (ETL) documentés. ● Tableaux de bord de suivi des fl ux (alerting et logs de transfert). ● Documentation technique du mapping des objets Salesforce vers BigQuery.
CDI

Offre d'emploi
Développeur Full-Stack

KUBE Partners S.L. / Pixie Services
Publiée le
Angular
Google Cloud Platform (GCP)
Java

Lille, Hauts-de-France
Ce que nous offrons : - La chance de travailler avec des technologies de pointe telles que Java, Javascript, Node.js, Vue.js, Spring, React, CI/CD, Kafka, Kubernetes, Cerberus, GCP, et bien plus encore. - Un rôle crucial dans une équipe qui valorise l'innovation, l'apprentissage continu et le développement professionnel. - Une position basée dans la métropole lilloise, au coeur d'une communauté technologique dynamique. Missions pour le Développeur Fullstack : - Conception et développement d'applications web fullstack en utilisant Java, Spring pour le backend et React ou Vue.js pour le frontend. - Intégration et déploiement continu (CI/CD) en utilisant des outils modernes et des plateformes cloud comme GCP. - Collaboration étroite avec les équipes de développement, QA et opérations pour optimiser le code, résoudre les problèmes et améliorer la performance et la sécurité des applications. - Participation active à la phase de conception produit, en apportant des idées innovantes et en travaillant sur des prototypes. - Gestion et mise en oeuvre de Kafka pour le traitement des flux de données en temps réel et Kubernetes pour l'orchestration des conteneurs. - Veille technologique continue pour rester à jour sur les nouvelles tendances et meilleures pratiques dans le développement Fullstack.
Freelance

Mission freelance
Data engineer Google cloud platform (GCP)

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery

6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Freelance

Mission freelance
Solution Consultant IT Senior (SAP SD/MM)

Nicholson SAS
Publiée le
ERP
IA
SAP

8 mois
350-500 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Solution Consultant IT Senior SAP pour rejoindre un grand groupe industriel international. Au sein d'une équipe Agile franco-indienne, vous jouerez un rôle clé dans la modernisation de l'écosystème applicatif et le déploiement de solutions innovantes. 📋 Détails de la Mission Localisation : Lyon (Rythme hybride : 3 jours/semaine sur site obligatoires) Date de démarrage : ASAP Durée : Jusqu’au 31/12/2026 TJM : 350 - 500 € HT/jour selon profil et séniorité 🎯 Vos Missions En tant que référent fonctionnel, vous intervenez sur l'ensemble du cycle de vie du produit : Évolution & Innovation : Participer à la mise en œuvre de nouvelles fonctionnalités S/4HANA (Fiori, solutions basées sur l'IA) et démontrer leur valeur ajoutée aux utilisateurs. Modernisation : Contribuer activement à la transformation de l'environnement applicatif SAP actuel. Expertise & Support : Apporter un support applicatif de niveau expert et partager vos connaissances avec l'équipe. Collaboration transverse : Travailler quotidiennement en environnement Agile avec une équipe pluridisciplinaire internationale (Architectes, Product Owners, Business Analysts, consultants techniques). Soft Skills : Langues : Anglais courant impératif (contexte multiculturel quotidien). État d'esprit : Proactivité, curiosité technologique et engagement. Adaptabilité : Capacité à appréhender un environnement complexe (systèmes SAP et non-SAP). 🛠️ Compétences Clés en bref DomaineCompétencesERP SAP S/4HANA, SAP SD (Expert), SAP MM (Bonus) Innovation Fiori, IA appliquée à l'ERP Méthodologie Agile / Scrum Langues Anglais (C1/Bilingue)
CDI

Offre d'emploi
Coaching des projets avec expertise sécurité

CGILANUM
Publiée le
Cybersécurité
Politique de sécurité du système d'information (PSSI)
SOC (Security Operation Center)

60k-70k €
Val-de-Marne, France
Bonjour, Je recherche en CDI un consultant faisant du coaching des projets avec expertise sécurité pour débuter une mission chez un de mes clients bancaires Forte expertise en : - Architecture de sécurité des applications et des infrastructures o Accompagnement et support sécurité aux projets métiers/infra. Techniques o Evaluation et validation sécurité des architectures techniques (Dossier DAT, modèle 3tiers, …) o Infrastructure sécurisée pour l'hébergement des applications : sécurité périmétrique o Analyse de sécurité/risques et des exigences de sécurité - Sécurité et Architectures des Cloud Public (AWS, AZURE ET GCP) Maitrise les architectures et sécurités des Cloud provider pour déclinaison dans l'env. du client Analyse de sécurité des services PaaS des 3 Cloud Providers Maîtrise des patterns d'architecture sécurisée des Cloud providers Rédaction des guides/standards de sécurité et restitution de l'analyse Compétences techniques : - Nécessaire : Maitriser le processus d'intégration sécurité dans les projets - Nécessaire : Réalisation d’analyse sécurité. Suivi d’une méthodologie afin de collecter les informations nécessaires à la réalisation d’une évaluation du niveau de sécurité d’un SI. Formalisation de recommandations avec leur priorisation. - Nécessaire : Etude d’architecture de sécurité. Bonne connaissance des modèles de l’état de l’art (3 tiers, moyens de segmentation, sécurité API, mise en œuvre de relais de sécurité, etc …). - Nécessaire : Profil transverse ayant une bonne compréhension des différents domaines de sécurité et des fonctions offertes par les outils/solutions associées : Sécurité Réseau (FW, IPS/IDS, …) ; Gestion d’identité (IAM, AD, annuaires LDAP, etc) ; Sécurité système (scan vulnérabilité, anti-malware, EDR, Hardening) ; Sécurité cloud publique (Security policies, CSPM, etc) et M365 ; Sécurité et Architecture sur la technologie de containers (Dockers, Openshift, Kubernetes, Podman,…) Sécurité IA; DevSecOps ; Bastion et réseaux d’administration ; Data protection (accès aux BDD, DLP, etc) ; - Utile : bonne connaissance des processus et standard de sécurité dans les grandes entreprises (lignes de défenses, outils de GRC, notion de PCA, RGPD, DORA, LPM) et le processus d'intégration de sécurité dans les projets Capacité à synthétiser des sujets complexe et à les présenter à des comités stratégiques (CDG, COSTRAT, etc ) du niveau managerial. Connaissance linguistiques : Français Courant (Impératif), Anglais Professionnel (Impératif) Mission : Accompagnement/Coaching sécurité dans les projets métier & infrastructure (démarche Intégration sécurité dans les projets) Evaluation/validation sécurité des architectures technique Elaborer les architectures et infra. techniques sécurisées Travailler en étroite collaboration avec les équipes IT, infrastructure, support, et sécurité (LOD1 et LOD2). Déplacement en France et à l’international à prévoir. Livrable : Définir les politiques et stratégies de sécurité (Sécurité des SI et/ou Protection des données personnelles), piloter la roadmap SSI et le plan SSI annuel Animer et apporter un support à la filière SSI et/ou Protection des données personnelles de l'entité Former, communiquer et sensibiliser à la SSI ou à la Protection des données personnelles Identifier et évaluer les risques de sécurité sous un angle Métier (Risques et impacts sur le métier, dispositifs de maitrise des risques) Elaborer le référentiel de contrôles permanents, réaliser les contrôles permanents de niveau 2 Contribuer ou piloter des revues de sécurité et tests d'intrusion Suivi des plans de remédiation permettant de réduire les risques Audit IT basé sur des référentiels normatifs (type ISO, PCIDSS, SOC2, etc) Compétences techniques : Infrastructure & Architecture de sécurité - Expert - Impératif Analyse de sécurité & risques - Expert - Impératif Démarche sécurité dans les projets - Expert - Impératif Connaissances linguistiques : Anglais Professionnel (Impératif)
CDI

Offre d'emploi
ML Ingénieur - Google Cloud

VISIAN
Publiée le
CI/CD
MLOps

Île-de-France, France
Contexte Afin d’améliorer la personnalisation de l’expérience utilisateurs, une équipe dédiée est créée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. La stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capables de répondre aux besoins et au volume de données
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
1465 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous