L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 731 résultats.
Mission freelance
Expert .net CORE /intégration Payment Service Provider/ Azure/ SQL SERVER/ CI/CD/ Kafka (H/F)
Octopus Group
Publiée le
.NET
.NET CORE
Apache Kafka
6 mois
480-560 €
Ivry-sur-Seine, Île-de-France
Nous recherchons pour le compte de notre client dans le retail un développeur back-end .NET sénior (6 à 9 ans d’expérience minimum) spécialisé dans les systèmes de paiement (PSP) pour intervenir au sein de sa Digital Factory, dans un contexte d’industrialisation, d’amélioration continue de la qualité et de modernisation des interfaces front. La mission consiste à : Concevoir, développer et maintenir des services de paiement robustes, sécurisés et résilients Garantir la fiabilité et la cohérence des flux transactionnels (validation, capture, refund, 3DS, gestion des middle states, gestion des échecs et retries) Contribuer à la qualité globale du produit en s’assurant que chaque évolution améliore l’expérience utilisateur, la fluidité du paiement et le taux de transformation S’impliquer activement dans l’observabilité : suivre les indicateurs transactionnels, analyser les comportements en production, anticiper les problèmes avant qu’ils n’impactent l’utilisateur Travailler en étroite collaboration avec les équipes Produit, Sécurité, QA, DevOps, Cloud et Architecture pour garantir un niveau de fiabilité maximal Assurer la responsabilité du service en production : surveiller les anomalies, traiter les incidents, comprendre les signaux faibles et garantir la stabilité du système Participer activement à l’amélioration continue : performance, sécurité, conformité, résilience, réduction de la dette technique, refactorings ciblés S’inscrire dans une approche orientée résultat : fluidité du parcours de paiement, réduction des échecs, performance transactionnelle, taux de succès, valeur business
Mission freelance
Data Engineer - IA Gen
VISIAN
Publiée le
FastAPI
IA Générative
Large Language Model (LLM)
1 an
400-550 €
Paris, France
Afin de mener à bien notre mission l’équipe est composée de Data Engineer, de Data Scientist, de développeurs Python et d’un data analyst. L’équipe se veut jeune dynamique, motivée et très pro-active, l’entraide et la bonne ambiance sont présentes. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les softs skills sont donc autant essentielles que la technique : bon communiquant, motivé, force de proposition et sociable. La mission : Un programme visant à traiter l’ensemble des uses cases nécessitant l’utilisation d’IA à destination de la Finance a été lancé. Dans le cadre de notre activité nous avons pour mission d’accompagner la phase de cadrage faite par les Product Owner et d’implémenter des solutions adaptées aux besoins exprimés. Pour se faire nous cherchons à renforcer l’équipe actuelle constituée de développeur Full stack (Python\Angular) de data engineer et de data scientist avec un Data Engineer possédant de bonnes compétences en IA générative. La mission principale du profil retenu sera : Concevoir et développer des solutions de traitement de données complexes Implémenter solutions exploitant des modèles d'IA générative Participer à la mise en place de prompts et de RAG Collaborer étroitement avec les Product owner, les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. Si vous êtes passionné par les défis liés à la manipulation de données non structurées, que vous maîtrisez le Python et que vous avez une solide expérience en Data Engineering et en Ia générative, nous serions ravis de recevoir votre candidature. L’environnement de travail se veut stimulant, il offre des opportunités d'apprentissage continu et des projets innovants au sein d'une équipe dynamique et passionnée par les technologies émergentes. Durant votre intervention vous serez rattaché au responsable de l’équipe de développements tactiques et vous serez supervisé par un membre de l’équipe maitrisant les outils de data science. Vous serez fréquemment au contact du métier, des équipes innovation et d’autres développeurs.
Offre d'emploi
Consultant IA / DATA
Tritux France
Publiée le
Data analysis
Data science
IA Générative
3 ans
Île-de-France, France
Apporter une expertise technique et produire des livrables sur les deux initiatives Low Code - No Code et Data Access ; API du plan stratégique de l'IT CIB. Expertise techniques data, API, Low Code - No Code, Citizen dev. Project management. Stratégie IT, Change et Transformation Contexte Vous rejoignez l’équipe Data & Innovation au sein de l’IT Transversale de Corporate ; Investment Banking. Nous travaillons à la réalisation de projets de data sciences (Data Analytics ; Visualization, Generative AI et Machine Learning) pour les métiers bancaires de la CIB afin d’explorer au maximum les opportunités business. Si vous êtes passionné par la Data Science et l'innovation technologique, vous serez heureux de rejoindre un environnement dynamique, exigeant et bienveillant au plus près du métier de la CIB.
Mission freelance
Consultant Ivalua
DEVIK CONSULTING
Publiée le
Azure Data Factory
Finance
Ivalua
2 ans
650-800 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un consultant Ivalua pour rejoindre le département Global Support Functions Application. Le consultant aura pour rôle de superviser le support de certaines application Finnance et apporter une expertise sur l’application Ivalua Mission principale : Le/La candidat(e) retenu(e) sera responsable de la bonne fourniture des services, de la maintenance technique et fonctionnelle ainsi que des évolutions futures des applications Finance et produits qui lui seront attribués, notamment :. Ivalua , en particulier les fonctionnalités SRM, S2C et P2P . Le démarrage du RUN pour les premiers pays et fonctionnalités est prévu tout début 2026 . Cette expertise est obligatoire afin d’assurer le RUN en tant qu’administrateur(trice) de la plateforme. Le/La candidat(e) devra posséder : une certification niveau 2 (L2) pour l’administration fonctionnelle générale, une certification niveau 3 (L3) spécifique à la configuration des modules et des intégrations. De plus, la certification Project Release Manager (PRM) serait fortement appréciée. Oracle OeBS R12 : le produit Ivalua ainsi que d’autres produits mentionnés ci-dessous seront intégrés à l’ERP Groupe basé sur la technologie Oracle OeBS R12 . La connaissance des applications suivantes pourrait également être un plus : Generix , en particulier le module Generix Invoices Service . Le démarrage du RUN pour le premier pays, est prévu début 2026 . SideTrade (Augmented Cash et plusieurs autres modules optionnels). Le RUN de plus de 10 pays devra être maîtrisé et mis sous contrôle. Azure Data Factory (ADF) , utilisé comme middleware pour connecter certaines applications à l’ERP Groupe. Lieu : Paris
Mission freelance
Engineering Manager – SRE / Reliability (H/F)
Crafteam
Publiée le
Ansible
AWS Cloud
Linux
1 an
600-650 €
Île-de-France, France
Nous recrutons pour l’un de nos clients , acteur majeur dans le secteur du paiement et des services digitaux, un Engineering Manager SRE / Reliability pour piloter la fiabilité, la performance et l’excellence technique de leur plateforme. Objectif du poste Assurer la stabilité, la performance et l’évolution de la plateforme tout en mettant en place des pratiques DevOps/SRE modernes et efficaces. Missions principales Piloter la fiabilité et l’optimisation technique de la plateforme. Définir et suivre les SLO/SLA et indicateurs clés. Superviser les processus CI/CD et l’observabilité . Coordonner les activités de support et d’administration. Promouvoir les bonnes pratiques techniques et l’innovation .
Offre d'emploi
Architecte Cloud Azure / SAP Rise
AVA2I
Publiée le
Ansible
Azure
Azure DevOps
3 ans
60k-72k €
500-630 €
Hauts-de-Seine, France
Contexte de la mission Dans le cadre d’un programme stratégique de migration cloud SAP Rise et de la fermeture progressive d’un datacenter on-premise , un grand groupe du BTP renforce son dispositif Cloud Public. La mission s’inscrit dans un contexte Move To Cloud Azure , avec des enjeux forts de sécurité, performance, gouvernance et industrialisation , sur des environnements critiques SAP. L’Architecte Cloud Azure interviendra en référent technique pour accompagner les équipes projet sur la définition des architectures, la migration et le support post-bascule. Objectifs & responsabilités1. Stratégie, gouvernance & sécurité Définition des standards, normes et bonnes pratiques (architecture, sécurité, FinOps, DevOps) Mise en œuvre du Security by Design : IAM, chiffrement, sauvegardes Supervision et monitoring Contribution à la gouvernance Cloud Azure et aux landing zones 2. Accompagnement des projets de migration Conception d’architectures Azure robustes, sécurisées et scalables Expertise sur : SAP Rise S/4HANA Cloud Migration de workloads SAP vers Azure Migration d’infrastructures et d’applications : Lift & Shift, replatforming, refactoring Azure Migrate Gestion des interconnexions : ExpressRoute, WAN, peering VNet, architectures hybrides (vWAN) Anticipation des incidents et support post-migration (N3) 3. Architecture & conception Réalisation des études techniques (infra & applicatif) Rédaction des dossiers d’architecture technique et d’exploitation Définition des processus d’industrialisation : Infrastructure as Code CI/CD 4. Pilotage & accompagnement des équipes Pilotage des projets Cloud (coûts, délais, qualité) Accompagnement des équipes projets et transfert de compétences (shift-left) Animation d’ateliers techniques Coordination multi-équipes et reporting 5. Veille & innovation Veille technologique continue sur les services Azure Proposition d’optimisations et d’innovations Cloud Environnement technique Cloud : Azure (IaaS, PaaS, SAP on Azure) Systèmes : Linux (RedHat, CentOS), Windows DevOps / IaC : Azure DevOps, Terraform, Ansible, Bicep Réseau : ExpressRoute, VNet Peering, architectures hybrides, vWAN Méthodologies : FinOps, DevOps, Infrastructure as Code
Offre d'emploi
Développeur C# .NEt sur Bordeaux
EterniTech
Publiée le
.NET
ASP.NET
C#
3 mois
Bordeaux, Nouvelle-Aquitaine
Je recherche pour un de mes clients un Développeur C# .NEt sur Bordeaux Compétences techniques Maîtrise de C# / .NET (niveau avancé) Expérience solide en APIs RESTful (4 ans minimum) Bonne connaissance du cloud AWS ou Azure (4 ans minimum) Pratique des outils CI/CD (GitHub Actions, Jenkins, Terraform…) Maîtrise de SQL et NoSQL (SQL Server, Redis, MongoDB, Cosmos DB) Développement assisté par l’IA Expérience concrète avec des outils d’IA générative pour devs (Copilot, Cursor, etc.) Capacité à intégrer l’IA dans les pratiques quotidiennes de dev Vision claire de ce que l’IA peut automatiser (structures, patterns, documentation…) Esprit critique : utiliser l’IA comme levier de qualité et de gain de temps, sans compromis sur les standards Méthodologies & pratiques Approche “You build it, you run it” Maîtrise du Clean Code, des revues de code et des tests Pratique de l’agilité (Scrum, XP) DevOps mindset Soft skills Communication claire et structurée Anglais professionnel Autonomie, prise d’initiative, capacité à prendre du recul
Mission freelance
PMO IT Cloud AWS
Karma Partners
Publiée le
AWS Cloud
6 mois
400-550 €
Île-de-France, France
ANGLAIS COURANT OBLIGATOIRE Coordonner et soutenir plusieurs programmes et projets informatiques dans divers domaines. Participer aux comités d'architecture et aux discussions techniques avec différentes parties prenantes, notamment les équipes de sécurité. Gérer les contraintes telles que les délais, les défis techniques et les exigences réglementaires pour garantir le succès des projets. Maintenir une documentation de projet complète à l'aide de Jira et Confluence, et créer des présentations percutantes et des synthèses pour les comités de pilotage. Contribuer à l'identification des points de blocage, des actions correctives et des stratégies de mise à l'échelle/d'atténuation. Collaborer étroitement avec les équipes techniques pour documenter avec précision les problèmes et solutions informatiques complexes. Faire preuve d'adaptabilité face à l'évolution rapide des projets et des technologies, et fournir des analyses stratégiques sur la priorisation et l'allocation des ressources
Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)
Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud
6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Mission freelance
Expert Observabilité Datadog
Cherry Pick
Publiée le
AWS Cloud
Datadog
Terraform
12 mois
550-650 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : 1. Formation & expérience : Bac +5 (école d’ingénieur, université ou équivalent) en informatique Expérience confirmée (3 à 5 ans minimum) dans le domaine du monitoring, observabilité Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus 2. Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) 3. Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Mission freelance
Analytics Engineer – Data & BI
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
100-600 €
Paris, France
Nous recherchons un Analytics Engineer pour rejoindre une équipe dédiée à la centralisation et à la fiabilisation des données dans un environnement data-driven. Votre mission consistera à concevoir et maintenir des pipelines de données (Azure Data Factory, Databricks, Spark SQL) pour alimenter un datamart utilisé par les métiers via des outils self-BI (Power BI, BusinessObjects). Vos missions principales : Concevoir et développer des pipelines d’ingestion via Azure Data Factory , en assurant leur robustesse et leur évolutivité. Transformer et optimiser les données en utilisant Spark SQL (Databricks) pour répondre aux besoins métiers. Maintenir et améliorer les indicateurs de qualité des données , en garantissant leur cohérence et leur fiabilité. Implémenter des tests unitaires pour sécuriser les pipelines et assurer la stabilité des solutions. Collaborer avec les équipes techniques et métiers pour affiner les besoins et proposer des améliorations continues. Participer à la maintenance des outils de monitoring pour suivre les performances et la santé des applications. Ce poste est idéal pour un professionnel souhaitant impacter directement la stratégie data d’une organisation en pleine transformation digitale.
Offre d'emploi
Expert Data Scientist – IA Générative & Computer Vision (F/H)
CELAD
Publiée le
38k-42k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Clermont-Ferrand - Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Expert.e Data Scientist – IA Générative & Computer Vision pour intervenir chez un de nos clients. Contexte : Vous avez envie d’utiliser l’IA pour résoudre des problèmes très concrets liés à la mobilité ? Pour renforcer l’équipe, nous recherchons un.e Expert.e Data Scientist – IA Générative & Computer Vision, capable de concevoir des modèles avancés et de contribuer à l’industrialisation de solutions innovantes. Votre rôle s’articule autour de plusieurs axes : Concevoir des modèles d’IA à fort impact : - Développer des briques d’algorithmes pour nos modèles prédictifs - Concevoir, tester et améliorer les modèles en assurant la traçabilité des expérimentations et des performances. - Définir et suivre les indicateurs permettant de mesurer les progrès et éviter les régressions. Faire avancer nos projets en IA générative et systèmes agents : - Contribuer au développement de solutions basées sur les LLM, VLM et systèmes agents. - Participer aux choix techniques : modèles, frameworks (LangChain, LangGraph, MCP, etc.). - Identifier quand l’usage d’agents est pertinent en tenant compte de la latence, du coût et des performances. Aller du prototype à l’industrialisation : - Construire des POC et prototypes, puis accompagner leur passage à l’échelle. - Veiller à l’interopérabilité des outils pour limiter les silos de données et maximiser l’impact des solutions. Contribuer à la vision et à l’innovation : - Faire de la veille sur les innovations en IA et mobilité. - Proposer de nouvelles approches ou opportunités technologiques. - Collaborer avec des partenaires externes : laboratoires, universités, start-ups. Travailler avec l’écosystème produit : - Échanger avec les équipes internes et les clients pour comprendre leurs besoins. - Partager vos analyses et résultats avec des interlocuteurs techniques et non techniques.
Mission freelance
Ingénieur cloud (Kubernetes/Amazon EKS/IAC) H/F
ALLEGIS GROUP
Publiée le
AWS Cloud
IAC
Kubernetes
3 ans
Toulouse, Occitanie
Responsabilités Concevoir et développer des architectures cloud évolutives. Implémenter des solutions de cloud computing (IaaS, PaaS, SaaS). Optimiser les performances des systèmes cloud. Collaborer avec les équipes de développement pour intégrer les solutions cloud dans les applications existantes. Assurer la qualité et la sécurité des données dans le cloud. Analyser les besoins en cloud et proposer des solutions adaptées. Surveiller et maintenir les systèmes cloud en production. Date de démarrage : Asap Localisation : Toulouse Rythme : 2 jours de télétravail Mission sur 3 ans
Mission freelance
Testeur & automatisation - Azure devops
PROPULSE IT
Publiée le
Automatisation
Azure
DevOps
24 mois
225-450 €
Le Plessis-Robinson, Île-de-France
Pour l'un de nos clients grand compte situé à la Defense nous recherchons en urgence un profil technique et fonctionnel sur la partie test / recette / automatisation des plans de tests et ayant un niveau confirmé - expérimenté sur la fonction. La maîtrise des principaux services d'Azure Devops et de Sonar sont impératifs pour ce poste long terme. Expérience minimale de 5 ans Confirmé - Impératif : Azure Devops (Pipelines, Test plans, boards, etc) confirmé - Impératif : Expérience en testing fonctionnel et développement de tests automatisés
Mission freelance
Tech Lead Java/Azure devops
infotem
Publiée le
Azure
Java
React
6 mois
450-500 €
Nice, Provence-Alpes-Côte d'Azur
La mission s’inscrit dans un environnement technique complexe et hybride , combinant les écosystèmes Azure et Legacy , et impliquant de forts enjeux de qualité, d’intégration et de coordination transverse entre les différentes équipes : Gaia (Ingestion et exposition des données des entreprises ainsi que des produits vendus sur le site ) , Atlas( Devops), Orion (Grille Tarifaire et Paiement), la TMA Legacy , et autres acteurs techniques connexes. Mission principale Rôle de Tech Lead. Il contribue à la conception technique, au pilotage des bonnes pratiques de développement, à la résolution des problématiques complexes et à la coordination transverse des sujets techniques. Responsabilités Leadership technique - Concevoir et documenter les solutions techniques sur des problématiques complexes ou transverses - Participer aux comités d’architecture (conception, décision, résolution transverse) - Garantir la cohérence des choix techniques et la qualité globale des livrables - Assurer le relais technique avec les équipes Atlas et TMA Legacy pour les livraisons en pré-production et production - Résoudre les blocages transverses liés à l’écosystème Azure / Legacy (ex : pipelines Azure DevOps, Datadog, interconnexions) - Définir ou réaliser des Proof of Concept (POC) permettant d’améliorer le cadre technique ou les outils de développement - Préparer et présenter les revues techniques de fin de sprint (qualité, architecture, incidents, recommandations) Encadrement et accompagnement technique - Veiller à la mise à jour et à la qualité des documentations techniques - Soutenir l’équipe dans la résolution et le débogage des anomalies complexes - S’assurer du respect des normes de codage, des revues de code et des bonnes pratiques - Valider les conceptions détaillées sur les périmètres Azure et Legacy Transversalité et support - Garantir un niveau de qualité homogène entre les différents contextes du client - Apporter un soutien opérationnel sur des problématiques de DevOps, conception, livraison ou debugging - Contribuer à la mise en place et à l’optimisation des chaînes CI/CD (notamment sur Azure DevOps) - Favoriser la coordination entre les équipes Build et TMA - Accompagner et conseiller les équipes projet et les clients internes sur les orientations techniques - Participer à la mise en place de chaînes d’automatisation (tests de non-régression, campagnes de tests fonctionnels, industrialisation DevOps) - Contribuer activement à la démarche qualité (mesure de la qualité, tests automatisés, fiabilisation des déploiements) Profil recherché - Expérience confirmée en développement et en architecture logicielle - Bonne connaissance de l’écosystème Azure et des pratiques DevOps - Capacité à travailler en transverse, à communiquer efficacement et à soutenir plusieurs équipes - Esprit d’analyse, sens de la pédagogie et goût du challenge technique - Expérience en animation technique, revue de code et coaching d’équipe Positionnement Le futur titulaire sera un référent technique transverse, capable de naviguer entre plusieurs environnements projet. Il devra garantir la qualité et la robustesse du socle technique Gaia, assurer un lien fort entre les équipes Build, TMA et Architecture, et être force de proposition dans une logique d’amélioration continue et de standardisation en interne
Offre d'emploi
Expert Google Workspace Data & IA
Management Square
Publiée le
BigQuery
Google Workspace
IA Générative
1 an
47k-55k €
450-530 €
Nouvelle-Aquitaine, France
Expert Senior Google Workspace, Data & IA 1. Contexte de la mission Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. 2. Description des missions Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5731 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois