L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 737 résultats.
Offre d'emploi
Administrateur de Bases de Données Postgre/Oracle - F/H
AIS
Publiée le
1 mois
35k-40k €
200-400 €
Nantes, Pays de la Loire
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grand compte, vos missions seront les suivantes : - Administrer, optimiser les environnements BDD et assurer le maintien en condition opérationnelle - Concevoir et mettre en œuvre les infrastructures de système de gestion des BDD (Oracle Clusterware, environnements mutualisés) - Mettre en oeuvre les solutions de réplication de BDD - Assurer le traitement des demandes de services et des incidents de Niveau 2 et interface avec les équipes N3 du client lorsque nécessaire - Participer à la mise en production - Analyser et suivre les incidents de mise en production - Maintenir les conditions générales de production de service (résolution d'incidents sur son domaine technique et propositions d'amélioration) - Réaliser l'enrichissement des référentiels d'exploitation ; - Participer à l'automatisation & à l'amélioration des activités - Réaliser l'intégration technique des composants dans le respect des normes d'exploitabilité Environnement technique : - Oracle 19c, PostgreSQL, SQLServer, MariaDB/MySQL - Linux Redhat, Windows Server - VMware
Mission freelance
Data Engineer Nantes /st
WorldWide People
Publiée le
Python
12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Offre d'emploi
Expert IBM MQ (H/F)
HELPLINE
Publiée le
Middleware
1 mois
40k-55k €
400-500 €
Montpellier, Occitanie
💼 Mission : Nous recherchons un Expert IBM MQ (H/F) pour intervenir sur des environnements Open et contribuer à la mise en œuvre, l’optimisation et l’industrialisation des solutions MQ au sein d’une organisation disposant d’infrastructures critiques et à forte volumétrie transactionnelle. Le poste à pourvoir est soit en CDI ou soit en freelance pour un de nos partenaires clients dans le secteur bancaire basé à Montpellier ou à Saint-Quentin-en-Yvelines (78). Vous interviendrez dans un contexte exigeant, multi‑sites et collaboratif, en lien avec des équipes techniques réparties sur plusieurs régions. Une forte autonomie et une excellente capacité d’analyse sont indispensables. Vos principales missions seront les suivantes : 1️⃣ Expertise IBM MQ Administrer et optimiser les environnements IBM MQ en versions 8, 9 et ultérieures Gérer les architectures MQ en cluster Intégrer MQ dans des contextes de forte volumétrie transactionnelle Diagnostiquer et résoudre des incidents complexes MQ 2️⃣ Monitoring & Observabilité Mise en place de l’alerting sous Zabbix Création et maintenance de dashboards Grafana Analyse et optimisation de la performance MQ 3️⃣ Automatisation & DevOps Implémentation des solutions MQ en mode DevOps Automatisation via : Ansible, Shell, JSON Standardisation et industrialisation des déploiements et configurations MQ 4️⃣ Développement / Intégration Maîtrise des applications Java consommant MQ Contribution aux projets impliquant MQ 5️⃣ Réseau & Analyse Connaissances solides réseaux : LAN, WAN, débit, routage… Analyse réseau avec des outils type Wireshark Compréhension des flux et optimisations inter‑systèmes
Offre d'emploi
Business Analyst
R&S TELECOM
Publiée le
Confluence
SQL
Squash
1 an
Bordeaux, Nouvelle-Aquitaine
MISSION: Il est attendu de l’intervenant les travaux suivants : Conception, recette, mise en production et suivi d’évolutions et correctifs. Rédaction des user stories ou SFD des évolutions (amélioration de l’outil, évolution réglementaire, extension de périmètre) Valider la demande avec l’architecte référent Réalisation des plans recette et des TNR Suivi de production et RUN : Analyse, qualification, recette des correctifs des anomalies de production Participation aux réunions d’équipe LIVRABLES ATTENDUS Tableaux de suivi (actions, liste des Jira traités, planning…) Stratégie de recette, cahiers et plans de tests, jeux de données Comptes rendus d’ateliers et comités
Mission freelance
Lead DevOps
Deodis
Publiée le
CI/CD
Kubernetes
Openshift
1 an
550-600 €
Île-de-France, France
Le bénéficiaire souhaite une prestation technique pour une installation/migration/support/automatisation sur nos applications au sein du Technology Office du Groupe BNP Paribas - APS REALESTATE. La prestation comportera les éléments suivants : Phase d’étude : - Accompagnement et orientation des différents intervenants (CDP, l’architecture et la sécurité) en apportant son expertise sur les technologies utilisées, comprendre les résultats de scan de sécurité sur les diverses vulnérabilités. Contribuer/Comprendre un schéma d'architecture afin d'être force de proposition. - Notions de Sécurité: scan Xray, Sysdig, Tanium - Connaissance des diverses techno: Ngnix, Drupal PHP, Apache Tomcat, Java. Phase d’implémentation : - Contribution à la mise en œuvre du projet technique sur les environnements de production et non production. - Réalisation des tests et validation des environnements avant de donner la main aux Etudes; - Mise en place Pipeline CI/CD via les toolschains du groupe. - Agile/Organiser car plusieurs projets à gérer en même temps. - Gestion des espaces Devops avec les CI/CD, GITLabCI, Digital AI, Jenkins, ArgosCD, IBM CLOUD (PaaS/IaaS), Kubernetes (pods, déploiements, cronjob, etc...), Openshift, CHART HELM, Docker, HVAULT (pour les gestion des secrets, certificats, authentification). - Notion databases en mode asservice (PostgreSQL, Oracle, SQL Server et MongoDB) Phase de Mise en Production : - Mise en place la supervision et l’ordonnancement de l’application: Autosys, CFT, Python, Shell, powershell si possible - Participation à la rédaction des livrables de mise en service (Dossier installation/Dossier Exploitation); Phase de support N3 / Maintenance : - Support aux équipes APS en cas d'incident sur les applications. - Maintenance des environnements Cloud liés à l'OPS Realestate. (Gestion du cluster, correction des vulnérabilités sur les images socles, VSI,etc...) - Expertise sur l'automatisation des tâches récurentes avec ANSIBLE. - Techno: Dynatrace, CLoudLog, IBM Cloud,Sysdig, RHEL 8, 9, Windows server. - Gestion de dMZR as Code avec Infraascode et ROKS, maitrise de Terraform.
Offre d'emploi
Administrateur systèmes Linux H/F
█ █ █ █ █ █ █
Publiée le
Ansible
Docker
Elasticsearch
Le Bouscat, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Développeur Full Stack Python - full remote
Net technologie
Publiée le
Apache Airflow
Azure
IA
3 mois
450-500 €
France
Renforcer et fiabiliser une plateforme interne utilisée par les équipes commerciales , qui permet de sélectionner des leads via Salesforce et d’interagir avec un backend API . Aujourd’hui, la plateforme a des soucis de stabilité et de fiabilité . La mission consiste donc à la stabiliser, l’optimiser et à y ajouter des fonctionnalités d’intelligence artificielle générative pour guider les actions commerciales et améliorer la performance des équipes. 🛠️ Missions principales Stabiliser et optimiser le backend existant Assurer une bonne communication entre Salesforce et le backend via API Intégrer des recommandations guidées par IA générative pour aider les commerciaux Automatiser et orchestrer les workflows avec Apache Airflow Déployer et gérer la plateforme sur Microsoft Azure Développer de nouvelles fonctionnalités en Full Stack Python
Mission freelance
TECHNICAL ARCHITECT - Nantes
Signe +
Publiée le
Apache Tomcat
AWS Cloud
Azure
180 jours
450-550 €
Nantes, Pays de la Loire
Prestation d'architecte technique dans un contexte Agile qui nécessite une collaboration étroite avec les différentes entités du système d'information pour concevoir et mettre en œuvre des architectures techniques cohérentes et optimisées. Architecture technique : - Participer aux études amont des projets : - Réaliser un bilan de l'existant. - Étudier la faisabilité, réaliser des estimations des différents scénarios d'architecture technique envisagés, et fournir une synthèse comparative. - Pour chaque scénario, présenter la démarche d'élaboration de l'architecture technique, fournir une liste des moyens techniques de base répondant aux principales exigences, et estimer les charges. Suivre et accompagner les projets informatiques : - Participer à la conception des projets en contribuant à bâtir l'architecture technique de la solution retenue pour le projet, en se basant sur les éléments d'architecture validés par l'urbaniste en étude préalable. - Respecter les contraintes d'urbanisme et les trajectoires SI envisagées. Standardiser et simplifier les échanges inter-applicatifs : - Identifier et décrire les flux, définir les standards d'échanges et mettre en place éventuellement des services automatisés d'échanges. - Faire le lien avec l'infrastructure technique et s'assurer que les solutions d'urbanisme sont supportées par les infrastructures techniques et conformes au schéma directeur technique. - Participer à l'étude d'impact sur l'architecture existante ou prévisionnelle des évolutions techniques liées à des modifications fonctionnelles ou à la prise en compte de nouvelles technologies, et recommander des choix techniques pour assurer la cohérence des évolutions. Conseiller et assister les acteurs du SI, dans les différentes phases de mise en place ou d’évolution de son domaine d’expertise : - Conseiller les acteurs SI sur l’utilisation des outils informatiques et de télécommunications. - Conseiller et assister les équipes de projet et de production. - Animer des réseaux entre les diverses entités informatiques pour prendre en compte les besoins et contraintes. - Accompagner les équipes d’exploitation pour le déploiement de l’architecture technique. - Proposer des solutions d’optimisation.
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Offre d'emploi
Architecte DATA Sénior
KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata
18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
Offre d'emploi
Ingénieur.e de production ALMT F/H
METSYS
Publiée le
AIX (Advanced Interactive eXecutive)
Ansible
Apache
54k-55k €
Seine-Saint-Denis, France
Pour l'un de nos clients grands-comptes de très forte renommée dans son secteur, nous recherchons un.e ingénieur.e de production ALMT (F/H) pour un démarrage début avril en Seine-Saint-Denis (93). Dans le cadre de cette mission, vous interviendrez sur les sujets suivants : Gestion et suivi de projets de l'ALMT (Gestion de l'obsolescence, Projet d'upgrade majeure d'application...) ; Construction des Roadmap, Suivi des jalons projets, Estimation de charge ; Etre le Single point of contact des équipes de développement , des équipes infra ; Participation aux choix d'évolution des systèmes ; Installation et intégration des systèmes informatiques ; Déploiement des systèmes à l'international ; Réalisation des tests techniques, de l'analyse/ validation des dossiers d'exploitation /d'installation ; Veiller à la garantie du niveau et des engagements de service ainsi que la qualité des livrables ; Intégration du devops aux applications de notre Client ; Préparation de la documentation nécessaire aux équipes de RUN ; Assurance du handover aux équipes L1/L2 Cette liste n'est pas limitative.
Offre d'emploi
Data Analyst Senior ( F/H) Nantes
Argain Consulting Innovation
Publiée le
Microstrategy
PowerBI
SQL
1 an
40k-45k €
500-550 €
Nantes, Pays de la Loire
🎯 Contexte Dans le cadre du renforcement des équipes Data d’un grand acteur du secteur bancaire, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des problématiques de pilotage de la performance, marketing et parcours digitaux. 🚀 Mission Vous interviendrez en étroite collaboration avec les équipes métiers afin de : Recueillir et analyser les besoins métiers, les traduire en indicateurs de performance (KPI) Exploiter les données issues des systèmes décisionnels et marketing Produire et automatiser des reportings et tableaux de bord Concevoir des restitutions visuelles claires et orientées décision Accompagner les équipes dans l’interprétation des analyses Mettre à disposition et maintenir des KPI fiables et pertinents Participer à l’amélioration continue des pratiques Data 📈 Responsabilités clés Analyse et valorisation des données Définition et suivi des indicateurs business Contribution à la stratégie de pilotage et à la prise de décision 🛠️ Compétences techniques Outils de Data Visualisation : MicroStrategy (idéalement) ou Power BI / Tableau SQL avancé (expert) Manipulation de bases de données volumineuses (type Teradata ou équivalent) Bonne compréhension des environnements data et décisionnels 🤝 Compétences fonctionnelles & soft skills Très bonne communication et pédagogie Capacité à challenger les besoins métiers Esprit d’analyse et de synthèse Autonomie et rigueur Adaptabilité et sens de l’organisation ➕ Atouts Expérience dans le secteur bancaire ou financier Connaissance des problématiques marketing et digitales Connaissance d’outils de tracking (type Tag Management / Web Analytics) Mission longue durée, Nantes 3 jours de présence sur site par semaine obligatoire
Offre d'emploi
Expert Google Workspace Data & IA
Management Square
Publiée le
BigQuery
Google Workspace
IA Générative
1 an
47k-55k €
480-530 €
Niort, Nouvelle-Aquitaine
Expert Senior Google Workspace, Data & IA Contexte de la mission : Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Mission freelance
Administrateur Système Exploitant Antivirus Marseille/la
WorldWide People
Publiée le
Administration système
Antivirus
6 mois
330-350 €
Marseille, Provence-Alpes-Côte d'Azur
Administrateur Système Exploitant Antivirus Marseille ASAP Le poste est soumis à l’obtention d’une habilitation de sécurité délivrée par les autorités compétentes. À ce titre, certaines conditions de nationalité s’appliquent. La mission : Vous assurerez, au sein d’une équipe dédiée, l’administration et le maintien en conditions opérationnelles des serveurs (Windows & Linux) et des équipements réseau de l’infrastructure. Vous interviendrez également sur la gestion des solutions antivirus déployées sur les postes clients et serveurs. Dans ce cadre, vous serez chargé de : • Installer, configurer et maintenir les serveurs et sauvegardes (Windows Server, Linux). • Gérer les utilisateurs, les droits d’accès, les partages réseau. • Assurer le déploiement et la supervision des agents antivirus, la gestion des mises à jour de signatures et l’analyse des alertes. • Participer aux réunions de suivi de l’équipe infrastructure, échanger avec les autres pôles techniques (sécurité, applicatif, support). • Documenter les procédures et les interventions techniques. Environnement technique : • Systèmes : Windows Server , Debian, Rocky, RHEL, bash • Réseaux : IP, VLAN, DHCP, DNS, routage • Sécurité : Outils antivirus (type ClamAV, Kaspersky, etc.) • Supervision : Grafana, Centreon • Base de donnée : MySQL, PGSQL, SQL • Développement : HTML, CSS, JS, Java (POO). • Outils : Confluence, Jira, Gitlab Profil recherché: Candidat confirmé ayant une bonne connaissance de l’administration système et réseau, avec une appétence pour les environnements de production et de sécurité. Les connaissances suivantes seront très appréciées : • Maîtrise des environnements Windows et Linux • Connaissances réseau (couches TCP/IP, routage, sécurité), analyse et debuggage • Capacité à automatiser des tâches (PowerShell, Bash, scripts divers) • Rigueur dans la documentation et le suivi des interventions profil type SM3 Admin Système Serveur localisé sur Marseille nationalité francaise uniquement avec expérience probante sur des solutions antivirales (idéalement KAPERSKY)
Mission freelance
246216/Technicien support utilisateur N0 N1 - Rennes
WorldWide People
Publiée le
Support utilisateurs
3 mois
200-220 €
Rennes, Bretagne
Technicien support utilisateur N0 N1 Analyse des sollicitations utilisateurs Diagnostic Identification Information Résolution => résolution de niveau simple ; application des procédures Escalade si nécessaire aux niveaux supérieurs en fonction de la criticité des incidents Exigence : très bon relationnel Connaissance technique : une première expérience en support user ; idéalement un vernis Unix ; Sql ; Java ; Cobol Le background technique n'est pas un pré-requis mais la personne devra faire preuve d'intérêt & de curiosité Mission à réaliser à Rennes, 2 jours sur site par semaine Objectifs et livrables Satisfaction client Une 50 aine d'incidents traités par mois Compétences demandées Compétences Niveau de compétence Support utilisateur Élémentaire
Mission freelance
Machine Learning Engineer – IA & MLOps
ESENCA
Publiée le
Github
LangChain
Python
1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2737 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois