Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Senior développeur Javascript / Typescript fullstack NodeJs & Angular
Nous poursuivons notre développement dans le Sud-Est et recrutons un(e) Ingénieur développement senior Javascript / Typescript full-stack NodeJs / Angular pour l’un de nos clients, PME située dans Marseille centre. Mission : Au sein d’une petite équipe de développeurs Javascript / Typescript, vos tâches seront les suivantes : - Concevoir et développer de nouvelles fonctionnalités Backend (70% de votre temps) et Frontend (30%) pour la V2 d’une plateforme digitale existante, ainsi que ses API - Réaliser la conception logicielle et optimiser la structure de la base de données (Mongo DB & PostgreSQL) - Améliorer la sécurité de la plateforme et le traitement des données personnelles - Réaliser les tests techniques (TU/TI) via Jest et corriger les anomalies - Harmoniser et industrialiser l’ensemble des composants et applications - Participer à la rédaction de la documentation technique - Aider à la construction de l’architecture data dans le but d’entraîner des algorithmes d’IA - Effectuer une veille technologique permanente et la partager Stack technique : Angular 15, NodeJS , NestJS, Express, API Rest, Websockets, Mongoose, MongoDB, PostgresSQL, Cloud AWS, Git, Github, CI/CD, KeyCloak, Jest, méthodologie Scrum Agile, cybersécurité
Offre d'emploi
Observability Expert
I. Contexte : Notre département IT souhaite mettre en place et animer une Communauté de Pratique dédiée à l’observabilité et à la supervision de nos applications métiers. En tant qu’expert Observabilité/Supervision, vous serez chargé de définir et mettre en œuvre une stratégie d’observabilité complète (monitoring, logs, alerting, tracing) afin de garantir une visibilité en temps réel sur l’état de santé, les performances et le comportement de nos applications. Ces solutions permettront une détection proactive des incidents, un diagnostic rapide des problèmes et assureront la disponibilité de nos services critiques. L’environnement applicatif est hybride, composé de solutions cloud (D365, Power Apps, services Azure, Data product Fabric) et d’applications hébergées on-premise sur serveurs Windows (sites web, serveurs IIS, etc.). II. Missions : · Référent technique pour contribuer à la construction et à l’implémentation des composants de supervision et des pipelines d’observabilité · Fournir une expertise et, si nécessaire, participer à la conception, l’intégration et le déploiement des solutions de supervision (dashboards, collecte de logs, tracing, détection d’anomalies basée sur l’IA, etc.) · Collaborer avec les équipes de développement, d’exploitation et de sécurité pour intégrer les outils et pratiques d’observabilité dans les pipelines CI/CD · Apporter son expertise lors des incidents et des analyses de causes racines. · Identifier les besoins spécifiques de chaque équipe et définir des plans d’accompagnement. · Développer et maintenir des tableaux de bord et rapports pour visualiser les performances applicatives · Analyser et interpréter les métriques pour identifier les tendances et détecter les problèmes de manière proactive · Définir la gouvernance, les règles de fonctionnement et les objectifs de la Communauté. · Mettre en place des outils collaboratifs (wiki, canaux Teams) · Organiser et animer des sessions de la communauté · Favoriser les échanges inter-équipes et le partage de connaissances · Co-construire des standards techniques et des guidelines avec les équipes · Rédiger des guides de bonnes pratiques et de la documentation technique · Assurer une veille active sur les technologies et pratiques d’observabilité · Évaluer et tester de nouveaux outils du marché · Proposer des POC et des expérimentations innovantes.

Offre d'emploi
Administrateur Système IBM AIX H/F
Nous recherchons un(e) Administrateur Système IBM AIX pour l'un de nos clients grand compte. L'entité en charge de la gestion des systèmes d'exploitation IBM AIX, Windows et Linux (OS) et s'occupe notamment du maintien en conditions opérationnelles de ces OS. Dans ce cadre, cette entité gère en condition opérationnelle environ 1200 VMs AIX. Missions : - MCO du parc des serveurs IBM AIX (maintenance logicielle, hardware, patching, test de résilience …) - La gestion des changements suivant les règles définies - La gestion des incidents et les problèmes sur ce périmètre. - La gestion de la documentation de ces infrastructures. - L'analyse des performances et répons aux besoins applicatifs (tuning des paramètres …) - L'analyse avec les responsables applicatifs des besoins en termes de ressource afin de bâtir un suivi de capacité et d’optimiser les coûts sur ces plateformes - L'assistance aux différents projets pouvant impacter ces plateformes (déménagement datacenter, refonte des infras de stockage / backup, refonte des infras réseaux ...) - Prévision des évolutions des ces plateformes en fonction de l’obsolescence ou de la consolidation des différentes infrastructures en partenariat avec IBM - l'analyse des évolutions en termes de résilience et robustesse en fonction des demandes autour de la sécurité. - l'analyse des possibilités d’utilisation de l’intelligence artificielle dans les processus d’exploitation de ces infrastructures (gestion proactive des incidents ou d’analyse des performances …)

Mission freelance
Recherche Ingénieur RAG
Dans le cadre du développement de solutions d’intelligence artificielle générative, nous recherchons un Ingénieur spécialisé en RAG (Retrieval-Augmented Generation) pour concevoir, développer et optimiser des systèmes mêlant recherche d’information (retrieval) et génération de texte via des modèles de langage (LLM) . Vos responsabilités incluront : Concevoir des architectures RAG robustes et scalables Implémenter des pipelines de traitement NLP : vectorisation, embedding, indexation, recherche sémantique Intégrer des modèles de langage type GPT, LLaMA, Mistral, etc., avec des bases de connaissances internes Travailler avec des solutions de base vectorielle (FAISS, Weaviate, Pinecone, etc.) Optimiser la pertinence des réponses via tuning du modèle, réécriture de requêtes, reranking, etc. Collaborer avec les équipes data, ML et produit pour cadrer les cas d’usage métiers Assurer la veille technologique autour du RAG, LLM open source, et du NLP Participation à des projets innovants autour des LLMs Forte autonomie dans les choix technologiques Possibilité de contribuer à de l’open source ou à des publications techniques Environnement agile, stimulant et orienté recherche appliquée

Mission freelance
Un Data Engineer sur Paris + TT
Smarteo recherche pour l'un de ses clients, Un Data Engineer sur Paris + TT Projet : Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Assurer l’assistance technique auprès de nos client Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Principaux livrables : Participer au cadrage technique Refonte et re-design de l'application existante Initialisation et préparation de l'environnement de DEV et de la chaine DEVOPS Développement Front avec UX/Design, gestion des exceptions. Développement des pipelines de données (Extraction via API externe et d'autres sources, Intégration dans une Base de données SQL et construction des données nécessaires pour exposition dans le portail) Intégration et déploiement continue via une chaine CI/CD sur l'ensemble des environnements Documentation technique et utilisateurs. Recette technique et tests de bout en bout. Traitement des incidents & assistance utilisateurs Respect des normes et règles de développement Python. Travailler étroitement avec les équipiers pour s’assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Compétences requises : Maitrise de Python et de Framework Streamlit Expertise en déploiement et configuration de Streamlit en environnement python Maîtrise de HAProxy et des concepts de reverse proxy et connexion SSL/TLS Maitrise Bash et chaine DEVOPS (GitLab, Jenkins, Ansible, Nexus, Sonar, …) Maitrise des base de données relationnelle SQL Experience sur la consommation et l'exposition API REST Kubernetes, pratiques MLOPS Une bonne autonomie et capacité de prendre le lead sur la définition des solutions applicatifs et le développement des évolutions bonne communication et accompagnement utilisateurs Sens du travail en équipe Best to have : - Connaissance LLM et IA GEN Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word

Offre d'emploi
Data Analyst
Descriptif du poste L'équipe People Analytics est le centre d'expertise Analytics & AI qui accompagne les équipes RH du Groupe dans l'exploitation des données pour aider au pilotage stratégique des activités et à l'amélioration de l'expérience employée. Elle construit des produits analytiques et d'IA, en agile, visant à : aide aux prises de décisions stratégiques pour la fonction, amélioration de l'expérience des collaborateurs du Groupe, contribution au dialogue avec les parties prenantes externes en rendant compte de nos actions RSE RH en tant qu'employeur responsable, digitalisation des processus RH. Missions principales En tant que Data Engineer / Data Analyst, la mission sera de : Comprendre les besoins exprimés par la direction générale, les équipes RH, ou le business, et les traduire en roadmap analytique (périmètre d'analyse, métriques…) Comprendre et challenger les développements déjà existants sur Alteryx Intégration des données dans la plateforme Data de l'équipe (environnement Oracle) Préparation et structuration de la donnée sous Dataiku selon les règles définies par l'équipe Construire les indicateurs nécessaires aux dashboards Développement des dashboards (Power BI et Tableau) et analyses (préparation, exploration, analyse descriptive, visualisation des données…, clustering, machine learning, NLP…) Mettre en place les contrôles nécessaires Maîtrise des problématiques de performances des dashboards avec gestion des droits et des accès sous Tableau Server Suivi de l'industrialisation des dashboards Rédaction de la documentation liée au produit : dictionnaire de données, modes opératoires, wiki, etc Collaboration Travaille en constante collaboration avec les autres membres de l'équipe (Product Owner, Data Engineers, Data Quality Analyst, Data Project Manager, Data Scientists) et être amenés à partager les connaissances en anglais avec les collaborateurs People Analytics basés à Lisbonne.

Mission freelance
Data Engineer Python et de Framework Streamlit /fa
Data Engineer Python et de Framework Streamlit - Sénior avec un minimum de 5 ans d’expériences sur des projets similaires. Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Maitrise de Python et de Framework Streamlit Expertise en déploiement et configuration de Streamlit en environnement python Maîtrise de HAProxy et des concepts de reverse proxy et connexion SSL/TLS Maitrise Bash et chaine DEVOPS (GitLab, Jenkins, Ansible, Nexus, Sonar, …) Maitrise des base de données relationnelle SQL Experience sur la consommation et l'exposition API REST Kubernetes, pratiques MLOPS Une bonne autonomie et capacité de prendre le lead sur la définition des solutions applicatifs et le développement des évolutions bonne communication et accompagnement utilisateurs Sens du travail en équipe Best to have : - Connaissance LLM et IA GEN Projet : Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Assurer l’assistance technique auprès de nos client Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Principaux livrables : Participer au cadrage technique Refonte et re-design de l'application existante Initialisation et préparation de l'environnement de DEV et de la chaine DEVOPS Développement Front avec UX/Design, gestion des exceptions. Développement des pipelines de données (Extraction via API externe et d'autres sources, Intégration dans une Base de données SQL et construction des données nécessaires pour exposition dans le portail) Intégration et déploiement continue via une chaine CI/CD sur l'ensemble des environnements Documentation technique et utilisateurs. Recette technique et tests de bout en bout. Traitement des incidents & assistance utilisateurs Respect des normes et règles de développement Python. Travailler étroitement avec les équipiers pour s’assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques.

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP
L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Offre d'emploi
Business Analyst
Contexte et Périmètre Le service IA est en charge de la gestion de la comptabilité auxiliaire des portefeuilles Institutionnels des clients d'une grande institution bancaire, via la production régulière des arrêtés en normes French Gaap, et IFRS9. Au sein du département, l'équipe Business Change Management (BCM) assure la mise en œuvre des évolutions, la maintenance de l'activité de Comptabilité Institutionnelle. Elle est également responsable des projets liés à cette activité. Objectif Collaboration avec le Responsable de l'équipe BCM, les équipes Métiers de comptabilité institutionnelle et avec les équipes IT d'une grande institution bancaire. Mise en conformité du paramétrage des Schémas Comptables de l'application SimCorp Dimension en norme French Gaap / IFRS9 et gérer des améliorations de processus opérationnels. Mission Analyser et optimiser les reportings et fichiers de contrôles existants mis en place actuellement à base de macro excel, excel VBA, base access. Migration vers l'outil ALTERYX de l'ensemble des Reporting utilisés dans le service en fonction des planning et priorisation définis par le chef de projet. Optimiser, mutualiser et fiabiliser ces reportings en fonction des délais projets. Assistance des équipes opérationnelles et résolution des problèmes techniques de construction des reportings et des contrôles lors des périodes d'arrêté (arrêtés mensuels / trimestriels / annuels). Prise en charge les demandes du client Cardif (fiches Nouveau Besoin – FNB) et demandes de maintenance corrective. Accompagnement au changement et à la transformation vers les équipes BCM et OPS (Formations / Support). Mise à jour régulière des procédures internes et des modes opératoires pour les sujets traités par le prestataire.
Offre d'emploi
Développeur confirmé sur nodejs (backend) / nestjs / prisma / React / typescript - Lille - 36 mois
Développeur confirmé sur nodejs (backend) / nestjs / prisma / React / typescript - Lille - 36 mois Un de nos importants clients recherche un développeur confirmé sur nodejs (backend) / nestjs / prisma / React / typescript pour une mission de 36 mois sur Lille. Description détaillée Pour le 13 ocotobre, nous recherchons 1 développeur confirmé sur nodejs (backend) / nestjs / prisma / React / typescript, afin d'intégrer l'équipe. Nos développeurs prennent en charge la conception technique, le développement, une partie des tests, et la maintenance des services développés. Caractéristiques du produit: Animation des prix d'achats des fournisseurs produit critique déployé produit Cloud Native sous GCP, avec environ 60% de périmètre métier restant à écrire refonte V2 technique à lancer en janvier organisation: 5 développeurs en hybride, 1 techlead, 2 QA/QE, 1 PO, sprints de 3 semaines Qualifications Confirmé en nodejs (backend) / nestjs / prisma / React / typescript => IMPERATIF 80% de backend (nodejs / nestjs / prisma) - 20% front au maximum Il doit s'agir d'un vrai fullstack sur les technos citées, bien que le ratio soit 80/20 entre back et front Expérience de développement avérée d'API REST dans des SI complexes (transformation digitale de nos domaines métiers) Expérience avérée en SQL (Postgres, optimisation de requêtes complexes) Expérience avérée en messaging de type Kafka (Redis est un plus) Connaissances Cloud type GCP, et technologies de conteneurs (Docker / Kubernetes) Expert: >7 ans d'xp sur plusieurs clients en transformation digitale majeure Ce qui fait la différence Software craftmanship / Clean code / Tests Connaissances DDD / Archi hexa / patterns d'archi Développement agile Utilisation de l'IA pour améliorer la productivité Expériences passées en Java / Springboot, qui sera un futur chantier Compétences techniques Nodejs / Nestjs - Expert - Impératif React - Confirmé - Impératif Typescript - Confirmé - Impératif Java (J2EE, Spring, ...) - Confirmé - Souhaitable Notes Cette mission se déroule dans le cadre de la reprise et du renouvellement de l'équipe historique du produit, avec le départ d'une partie des sachants Une forte capacité à la communication et à la formalisation est exigée Depuis janvier, reprise de l'équipe et refonte de la solution actuelle afin de la rendre plus maintenable et plus évolutive (80% backend) Prise de recul, positivité et adaptabilité sont nécessaires pour la réussite des premiers mois de la mission, qui seront clés pour la tenue de notre roadmap L'entretien devra mettre en valeur les faits sur les réalisations du consultant (quoi, actions prises, choix effectués, démarche adoptée, quels patterns) et éviter les formules générales ("j'ai participé à", "j'ai suivi les bonnes pratiques") Cette mission est un réel challenge technique et humain. Sa durée est de 3 ans, avec présence site obligatoire les lundi, mardi et jeudi. Les entretiens démarreront le 02/09 au retour de congés de l'équipe participant aux entretiens. Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Offre d'emploi
Architecte Technique ServiceNow
Missions principales 1. Définition de l’architecture et cadrage technique Concevoir l’architecture globale des solutions ServiceNow en adéquation avec les besoins métiers et les contraintes techniques. Définir les standards d’implémentation, les modèles de données, les interfaces et les flux d’intégration. Réaliser des analyses d’impacts, des études de faisabilité et formuler des recommandations techniques (cloud vs on-premise, sécurité, performance). 2. Pilotage de la conception et de l’implémentation Traduire les exigences fonctionnelles en spécifications techniques détaillées. Superviser la configuration et le développement des modules ServiceNow (ITSM, ITOM, HRSD, CSM, CMDB, SACM, etc.). Encadrer les équipes de développement et garantir la qualité des livrables techniques. 3. Gouvernance et stratégie de plateforme Assurer la cohérence de l’architecture ServiceNow avec les standards de l’entreprise. Contribuer à la définition de la roadmap produit et à la planification des évolutions. Documenter l’architecture cible, les choix techniques et les bonnes pratiques. 4. Support aux projets et coordination transverse Accompagner les chefs de projet et business analysts dans le cadrage des projets. Participer aux comités techniques, ateliers de conception et revues d’architecture. Coordonner les échanges entre les équipes métiers, techniques, sécurité et intégrateurs. 5. Amélioration continue et veille technologique Évaluer les nouvelles fonctionnalités de ServiceNow et proposer des évolutions pertinentes. Participer aux montées de version, audits de performance et plans d’amélioration continue. Contribuer à la veille technologique sur les sujets ITSM, ITOM, cloud, DevOps, IA, etc. Compétences clés requises Expertise approfondie de ServiceNow : ITSM, ITOM, HRSD, CSM, CMDB, Performance Analytics. Maîtrise des frameworks TOGAF, ITIL, Agile/SAFe. Solides compétences en intégration, sécurité, cloud (AWS, Azure), API, scripting (JavaScript, REST). Excellente capacité à vulgariser les enjeux techniques auprès des parties prenantes métiers.

Mission freelance
Administrateur Microsoft
🎯 Mission Freelance/Pré-embauche – Administrateur Microsoft - Rhône-Alpes 📍 Rhône-Alpes - 1 jours/semaine de remote 📅 Démarrage : ASAP ⏳ Durée estimée : Courte durée de prestation puis internalisation chez le client. Vous aurez pour mission le maintien des solutions de l'éco système Microsoft (Administration des services Microsoft et d’autres logiciels, participation au support – Gestion des tickets d’incidents ou demandes de Support) et vous participerez à des projets d’évolutions du périmètre digital. Les Missions / Responsabilités : Administrer les services Microsoft 365 (gestion des identités, SSO, MFA, licences…) Administrer les services existants sur Microsoft Azure Administrer l’environnement Microsoft Intune (mobiles, tablettes et PC) Administrer les briques de la Power Plateform (gestion des environnements, des applications, des permissions…) Suivre la roadmap des évolutions des produits Microsoft et participer à l’implémentation des changements Piloter ou participer à des projets de mise en œuvre ou de changement de configurations Mettre en œuvre de nouvelles applications ou services Rédiger des documents techniques (architecture, exploitation) et des procédures Participer au traitement du support (N2/N3) du périmètre Compétences attendus : Expérience de 5 ans minimum autour des systèmes Microsoft. Une excellente maitrise des différents briques de l’écosystème Microsoft (Azure, M365, Intune, PowerPlateform, Azure Devops). Des connaissances en Active directory, Powershell, infrastructure as code, base de données sont nécessaires. Une première expérience autour des solutions d’IA générative ou IoT sera appréciée. Un bon niveau d’anglais est nécessaire dans le cadre d’échanges avec des utilisateurs à l’étranger (Environnement multisites en France et à l’international). Bonus : Idéalement, vous avez déjà passé des certifications Microsoft 365 et/ou Azure. Je suis disponible pour discuter avec vous et échanger sur cette proposition, Sandro Curcio.

Mission freelance
Tech Lead Observability
CONTEXTE Métiers Fonctions : Production, Exploitation, Infrastructure, Ingénieur Devops Spécialités technologiques : Cloud, Infrastructure, Monitoring, SRE, Devops Nous sommes à la recherche pour un de nos client, un groupe international indépendant de conseil financier . Le département IT (~200 personnes) a externalisé l’infrastructure mais conserve la maîtrise des applications métiers. MISSIONS Dans le cadre de sa démarche DevSecOps et de standardisation transverse, le département IT souhaite initier et animer une Communauté de Pratique dédiée à l’Observabilité et à la Supervision des applications métiers. Description du projet : - Contexte hybride : applications cloud (Dynamics 365, Power Apps, Microsoft Fabric, services Azure) et solutions on-premise (IIS, Windows Servers) - Objectif : garantir une visibilité complète et en temps réel sur la santé, les performances et les comportements des applications critiques - Finalité : détection proactive des incidents, réduction du MTTR, diagnostic rapide, fiabilité accrue des services métiers Tâches confiées : - Définir la stratégie d’observabilité (logs, métriques, traces, alerting) - Implémenter les composants techniques dans les pipelines CI/CD - Participer à la conception, intégration et déploiement des outils (dashboards, IA pour détection d’anomalies, etc.) - Coordonner les parties prenantes (Dev, Ops, Sec) - Créer des dashboards de performance applicative et rapports analytiques - Analyser les métriques et identifier les tendances - Assurer un support expert lors des incidents et post-mortems - Structurer et animer la communauté transverse DevSecOps - Mettre en place la gouvernance, les outils collaboratifs, les guides et la documentation - Réaliser une veille technologique active et expérimenter de nouveaux outils via POCs Responsabilités du Consultant Observabilité : - Agir en Tech Lead Observability - Animer et structurer la communauté de pratique - Fournir une expertise technique pointue sur l’ensemble du cycle de monitoring - Co-construire les standards avec les équipes DevOps, SRE et métier - Être le référent transverse sur les enjeux de supervision intelligente et industrialisée
Mission freelance
Formateur/Développeur Python/Django
recherche un Développeur Senior pour accompagner la communauté des salariés-codeurs sur leurs projets de développement. Le DevStudio est une initiative visant à démocratiser le développement applicatif en interne, notamment en Python et R, en apportant un support technique, méthodologique et pédagogique. Missions Accompagnement des projets Revue, reprise et accompagnement des projets en Python / R Support sur Git, GitLab, CI/CD, hébergement et mise en production Analyse de la qualité du code, écriture de tests unitaires Conseil sur la documentation, l’architecture et les bonnes pratiques Participation aux réunions projets, suivi régulier des contributeurs internes Développement et maintenance du site DevStudio (Python/Django) MCO (corrective et évolutive) du site et des kits de démarrage Développement de nouvelles fonctionnalités (backend + UI) Veille technologique (cybersécurité, frameworks, outils internes) Animation & formation Animation de la communauté des codeurs RTE Participation aux événements : forums, ateliers, hackathons, démonstrations Rédaction de contenus (newsletter, documentation) Animation d’ateliers techniques (Python, Git, R, HTML/CSS, Docker, etc.) Profil recherché Compétences techniques requises Langages : Python (avancé), Django, Flask, Dash, Streamlit, R (bonne connaissance), JS/HTML/CSS Data Science : Pandas, NumPy, Matplotlib, nettoyage, analyse de données ML/IA : Scikit-learn, TensorFlow, Keras, Pytorch, déploiement de modèles API & microservices : Django REST, sécurisation (OAuth, JWT) DevOps : Docker, GitLab CI, Linux, scripts Bash, Azure BDD : PostgreSQL, MySQL Bonnes pratiques Tests unitaires, audits de code, documentation technique Travail en équipe Agile (kanban) Développement de code maintenable et scalable Sens pédagogique et capacité à vulgariser Expérience attendue 10 ans minimum d’expérience en développement Capacité à intervenir sur des projets multi-technos, en environnement agile Expérience de mentorat ou formation appréciée Environnement de travail Équipe pluridisciplinaire (animateur, chefs de projet, contributeurs internes) Projet transverse au sein de la DSI Déplacements ponctuels en région à prévoir Matériel et accès aux outils fournis par RTE

Mission freelance
Un Consultant Test (JIRA XRAY ) sur Nantes
Smarteo recherche pour l'un de ses clients, Un Consultant Test (JIRA XRAY ) sur Nantes Description: Dans le cadre du développement et de l'optimisation du socle Data de la plateforme DATA IA de notre client, nous nous renforçons l'équipe de test. Au sein de l'équipe (environ 12 personnes) en charge des données et des services de gestion de la donnée (ingestion, traitement, exposition) la prestation se déroulera en étroite collaboration avec l es Product Owner et les autres membres de l'équipe pour garantir la qualité des produits et services liés, à la fois lors des phases de fabrication mais aussi dans le bon fonctionnement en production . La mission consistera - à assurer la mise en place d'une stratégie de test - à définir et suivre le bon niveau de reporting d'avancée des test (XRay manuel et auto). - Prêter main forte dans l'exécution des tests d'une version. L'équipe bascule de plus en plus en CI/CD, il est donc nécessaire de connaitre les pratiques de tests dans ce mode de fonctionnement. Une appétence pour la réalisation de tests automatisés est un plus. Activités à réaliser : - Rédaction et maintient de la stratégie de tests de l'équipe - Animation des 3 Amigos - Animé la phase de tests (organisation, reporting d'avancement) - Réaliser une partie des campagnes de tests avec l'équipe - Rédiger les tests dans XRay - Suivre les incidents de production - Participer à la vie de l'équipe et aux cérémonies Livrables : - Stratégie de tests - Rapport d'exécution des tests de recette - Cadre de fonctionnement dans Xray et Reporting automatisé - Critères d'acceptation des Features et Stories à jour Le candidat que vous proposerez devra disposerdes expériences suivantes : - Définition et mise en place de Stratégie de test - JIRA XRAY - tests en contexte Agile - Orchestration de recettes utilisateur - Rédaction de critères d'acceptation - Rédaction de Scénarios de tests Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.