L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 287 résultats.
Mission freelance
Proxy PO build - Snowflake + Power BI
FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Mission freelance
Développeur Data/Data Engineer (H/F)
Insitoo Freelances
Publiée le
Azure
Cloud
PySpark
2 ans
380-480 €
Charleroi, Hainaut, Belgique
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Data/Data Engineer (H/F) à Charleroi, Belgique. Les missions attendues par le Développeur Data/Data Engineer (H/F) : Politique télétravail / venue sur site : 2 jours sur site / semaine Autre : Le site n’est pas facilement accessible en transports en commun, la possession d’un permis de conduire et d’un véhicule sera préférable pour les déplacements. Principales responsabilités : Développer les flux d'ingestion via Fabric Data Factory (et comprehension de Azure Data Factory) ; Développer les flux de transformation de données via Fabric Factory Notebook ; Optimiser les Queries des transformations, en particulier en prenant en compte les coûts Azure associés ; Contribuer à la modélisation du Lake House ; Établir le Design technique,implémentation de l'architecture médaillon (silver& gold) dans Microsoft Fabric ; Établir le plan de tests unitaires (automatisables) de la solution ; Suivre/exécuter les tests unitaires ; Participer à l’estimation de l’effort lié aux activités de développement lors du cadrage de la demande ; Rédiger la documentation technique ; Contribuer à l’amélioration continue (guidelines de développement) ; Contribuer à la maintenance & résolution des incidents (production).
Mission freelance
Développeur Full Stack( Java,Python, Reactjs, AWS)
TEOLIA CONSULTING
Publiée le
AWS Cloud
Python
React
36 mois
570-590 €
La Défense, Île-de-France
Je cherche pour l'un de nos clients un Développeur Full Stack ( Python, Reactjs, AWS): Missions: Analyses des User stories et chiffrages Développements des user stories et tests unitaires Participation au cérémonies agile Revue de code et maintenance de la base code MCO des applications Rédaction des documentations techniques Environnement technique: Angular js Java 21 AWS Terraform GIT GitLab CI Python React js Postgres Travail en équipe : capacité à coopérer avec des profils d’expertises variées, partage des connaissances, et bonne communication au sein de l'équipe comme avec nos interlocuteurs tels que les PM ou Business Owner. Capacité de synthèse et pragmatisme, orientation vers les résultats.
Mission freelance
Développeur / data engineer
AVALIANCE
Publiée le
Azure
CI/CD
Microsoft Fabric
2 ans
400-550 €
Belgique
Contexte de la mission Le data developer/engineer recherché rejoindra l’équipe Factory Data utilisant les technologies data Azure : Tâches principales • Développer les flux d’ingestion via Fabric Data Factory (et compréhension de Azure Data Factory) ; • Développer les flux de transformation de données via Fabric Factory Notebook ; • Optimiser les Queries des transformations, en particulier en prenant en compte les coûts Azure associés ; • Contribuer à la modélisation du Lake House ; • Établir le Design technique, implémentation de l’architecture médaillon (argent & or) dans Microsoft Fabric ; • Établir le plan de tests unitaires (automatisables) de la solution ; • Suivre/exécuter les tests unitaires ; • Participer à l’estimation de l’effort lié aux activités de développement lors du cadrage de la demande ; • Rédiger la technique de documentation ; • Contribuer à l’amélioration continue (guidelines de développement) ; • Contribuer à la maintenance & résolution des incidents (production).
Offre d'emploi
Architecte Cloud Azure - Expert AD/Entra ID (h/f)
Aprile
Publiée le
Microsoft Entra ID
Virtualisation
92100, Boulogne-Billancourt, Île-de-France
APRILE est une société de services basée à Boulogne-Billancourt et regroupant une quarantaine de collaborateurs. Depuis 2004, notre activité s’articule autour de plusieurs pôles : Infogérance (Exploitation ; Hébergement ; Helpdesk), Intégration de Systèmes&Réseaux et Services Associés (Délégations chez nos clients de profils liés aux métiers de la Production, Assistance, Exploitation et Etudes et Développement). Descriptif Notre client basé à Boulogne-Billancourt (92) recherche un Architecte Cloud Azure - Expert AD/Entra ID (h/f) pour un démarrage ASAP, afin de renforcer son équipe pour travailler sur des sujets variés dans un contexte international. Au sein d'une équipe à taille humaine, vous aurez pour principales missions : Participer à l'amélioration continue des services cloud Azure Renforcer la s écurité du tenant Azure AD pour répondre aux exigences réglementaires et réduire les vulnérabilités critiques Assurer le suivi et le maintien des systèmes Cloud existants Assurer la surveillance et la sécurité des infrastructures. Rédaction des documents d’architecture technique, documents d’exploitation.. Assurer une veille régulière pour optimiser les performances des services Cloud. Scripting PowerShell , automatisation des activités Azure et Office 365 Collaborer avec les équipes et les chefs de projets sur différents sujets et projets ( Hybridation...) Le poste prévoit 1 jour de Télétravail par semaine. Profil Vous avez une bonne maîtrise générale de l’environnement serveur Microsoft et une expérience confirmée sur un poste d'Ingénieur système ? Vous êtes expert sur Azure et sur Entra ID ? Vous êtes autonome, avez un bon sens de l'organisation, de la rigueur ainsi qu'une aisance en communication pour le travail en équipe ? Alors n'hésitez plus, postulez pour que l'on puisse en discuter ! Compétences requises Cloud Azure Entra ID Virtualisation Sécurité AD / GPO Power BI ( Notions de base) Linux ( notions de base) Anglais professionnel pour certains échanges avec les filiales du groupe. Type de contrat : CDI/ Freelance - Temps plein Salaire : selon expérience
Mission freelance
Architecte Cybersécurité Senior
Neotrust
Publiée le
Agile Scrum
AI
API
1 an
700-750 €
Paris, France
Type de mission : freelance / indépendant (full time) Client : Grand compte Localisation : Est de Paris Télétravail : Hybride (3 jours de télétravail) Durée de la prestation : mission longue durée (12 mois renouvelable) Début de mission : Dès que possible Description du Besoin Le Client recherche un(e) Architecte Cybersécurité pour renforcer le pôle Expertise de l’équipe Cybersécurité rattachée à la DSI . L’équipe Cybersécurité est structurée en 3 pôles : Gouvernance : pilotage cybersécurité et consolidation de la gestion des risques Opérations : défense au quotidien, notamment via le SOC Expertise : accompagnement des clients internes via une offre Produit (ISP, TPRM…) et une offre Innovation (architecture, doctrine, prospective…) Votre Mission Vous accompagnez les équipes agiles pour atteindre un niveau élevé de sécurité : Accompagnement pragmatique des équipes pour la mise en conformité et la sécurisation des produits Définition de doctrines / exigences non fonctionnelles de sécurité (NFR) Veille technologique et capacité à challenger les solutions et choix d’architecture Analyse critique des résultats pentest / red team et support à la remédiation Contribution à l’ amélioration continue et à la stratégie cybersécurité (sujets transverses possibles) Priorités court terme (dès démarrage) Accélérer le DevSecOps des squads (SSDLC, outillage, usage d’un Cyber Score ) Accompagner l’appropriation de solutions cyber : DLP (Purview et Varonis) , CNAPP, SSE, VOC, DMARC, Cloud souverain… Cadrer / encadrer l’usage des IA génératives & IA agentiques Renforcer le chiffrement “state of the art” et préparer la transition post-quantique Valider la conformité cyber des nouveaux socles et applications du SI Responsabilités clés Conseil & accompagnement des équipes projets / produits (mode agile) Revue d’architecture sécurité (cloud/on-prem, APIs, web, réseau, data) Production de livrables : doctrine, patterns, exigences, avis sécurité, recommandations Interface avec les parties prenantes (DSI, équipes produit, Ops, gouvernance, sécurité) Environnement technologique Sécurité technique : Réseau, API, Web, Systèmes, Cloud Risk & frameworks : ISO, NIST (et assimilés) DevSecOps : SSDLC, SAST, DAST, SCA (Checkmarx), Sécurité Cloud : CNAPP / CSPM (Prisma Cloud) IAM : OIDC, SAML, SCIM Réseau : ADN, SASE (Netskope) Cloud & plateformes : AWS, Azure, GCP, VMware, Kubernetes OS : Linux / Windows / macOS Crypto : PKI, certificats/CLM, KMS/HSM, chiffrement IA : Dust, Mistral, Copilot, MCP, agents Méthodes : Agile / Scrum / SAFe
Mission freelance
Expert AWS
QUALIS ESN
Publiée le
AWS Cloud
6 mois
430-550 €
Lyon, Auvergne-Rhône-Alpes
La prestation demandée a pour objet principal de fournir une expertise sur les technologies Cloud AWS dans le cadre de déploiement d’un projet vers le Cloud.. Cette prestation vise à accompagner la migration du projet GPS basé sur le progiciel Planisware vers une infrastructure cloud AWS en garantissant la conception, le développement, le déploiement, le support et l’évolutivité de la solution dans un environnement Cloud sécurisé et maîtrisé. La prestation se déroulera dans une équipe composée de 4 à 5 collaborateurs, placée sous la responsabilité d’un référent technique assurant l’encadrement opérationnel. Collaboration étroite avec les développeurs, architectes et sécurité, participation aux cérémonies Agile (daily, sprint planning, rétrospective). Cette Prestation comprendra les activités et tâches suivants : • Réaliser un état des lieux de l’existant, sur l’ensemble des chantiers applicatifs et techniques identifiés dans le périmètre de DevSecOps de GPS • Élaborer des spécifications fonctionnelles et techniques à partir des besoins exprimés par l’équipe projet • Concevoir, développer, paramétrer et documenter les services en assurant l’automatisation, la fiabilité, la sécurité et la scalabilité des environnements • Déployer les services sur les environnements définis, dans le respect des jalons • Fournir un support technique et fonctionnel pendant toute la durée de la prestation, et en particulier lors de la phase de déploiement opérationnel • Mettre en œuvre la réversibilité des infrastructures, permettant un retour ou un transfert depuis et vers AWS, dans une logique de maîtrise du multi-cloud.
Mission freelance
Expert DevOps Cloud IA/HPC/AWS
Cherry Pick
Publiée le
AWS Cloud
Docker
Gitlab
12 mois
750-800 €
Paris, France
Notre client recherche un expert DevOps cloud qui sera intégré à une équipe ML Platform de haut niveau (chercheurs et ML Engineers) au sein d'un acteur majeur de la finance. L'objectif est de gérer la puissance de calcul ( GPU/FLOPs ) et d'industrialiser les environnements de recherche. Missions : Ingénierie du Compute & GPU Orchestrer et optimiser la puissance de calcul ( FLOPs ) mise à disposition des chercheurs. Gérer les défis liés à la stack IA sous Docker : optimisation d'images lourdes (plusieurs Go), réduction du Cold Start et configuration avancée des drivers GPU/NVIDIA. Collaborer avec les équipes SRE et Cloud transverses pour la consommation des ressources (environnement avec VPC managé). 2. Architecture Cloud Hybride & FinOps Piloter les outils d'interface permettant de basculer les calculs vers le Cloud public ( AWS ) pour gérer les pics de charge. Instaurer une culture FinOps : monitoring précis de la consommation GPU et optimisation des ressources pour garantir un ROI maximal. 3. Gouvernance et Sécurisation de la donnée Concevoir un circuit de validation automatisé pour l'export sécurisé de données propriétaires. Développer des CI/CD sécurisées capables d'analyser les dépôts de code et de gérer finement les droits d'exposition des données. Créer des environnements "Sandbox" (POC) agiles pour les besoins externes tout en maintenant l'étanchéité des assets critiques. 4. Leadership & Cadrage Technique Apporter une structure "Ops" aux travaux de recherche tout en respectant la flexibilité nécessaire aux chercheurs. Prendre du recul technique pour traiter le legacy et industrialiser les processus.
Mission freelance
241208/Data Scientist Azure ML Python Gitlab LLM
WorldWide People
Publiée le
Azure
Python
3 mois
400-420 £GB
Vélizy-Villacoublay, Île-de-France
Data Scientist Azure ML Python Gitlab LLM La mission concerne, une nouvelle entité du client créée pour développer de nouveaux cas d’utilisation en Intelligence Artificielle. La mission s’organise autour de trois axes : - Identification et analyse des besoins : participation à des ateliers d’idéation pour identifier les besoins du client et proposition de solutions algorithmiques sur mesure adaptées aux besoins. - Développement et validation des modèles d’IA : analyse des données disponibles, développement, test et validation des algorithmes de traitement de données en utilisant des méthodes d’algorithmes d’optimisation, de LLM, de Machine Learning et de Deep Learning en tenant compte des besoins en termes de sensibilité des données. - Partage de connaissance et communication : diffusion de la connaissance au sein de l'entité, partage des avancées réalisés, communication des succès et apprentissages, montée en compétence au sein de l’équipe. Objectifs et livrables Participer activement à l’identification des besoins des clients à travers des ateliers d’idéation Proposer des solutions algorithmiques sur mesure adaptées aux besoins Analyser rapidement les données disponibles pour sélectionner les modèles d'IA les plus pertinents face aux défis identifiés. Développer et tester des applications. Partager régulièrement des insights et des innovations issues des projets avec l'équipe . Communiquer efficacement en interne pour mettre en valeur les succès, les avancées réalisées et les leçons apprises. Compétences demandées Compétences Niveau de compétence Expérience solide dans le déploiement d’algorithmes d’optimisation Azure Machine Learning Gitlab CI/CD Connaissance approfondie des modèles algorithmiques (ML/DL). Programmation Python Confirmé Conduite d'atelier et de réunion Deep learning LLM
Mission freelance
Data Engineer Snowflake (H/F)
Cherry Pick
Publiée le
AWS Cloud
Python
Snowflake
12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Snowflake (H/F) pour l'un de ses clients qui opère dans le secteur du prêt-à-porter. Description 🏢 Le Contexte : Pilotage et Évolution du socle Snowflake Vous rejoignez une équipe Data en pleine transformation. Le socle technologique est désormais en production et nous recherchons un Data Engineer Senior pour reprendre le flambeau, sécuriser le "Run" et poursuivre le développement de la plateforme. L'enjeu est double : assurer une passation fluide avec le consultant sortant (fin de mission fin avril) et accompagner l'arrivée du nouveau Responsable Data (prévue le 9 février) dans l'évolution de la stratégie (replatforming d'apps legacy, architecture cloud). 🎯 Vos Missions : Développement, Run et Optimisation En tant que référent technique Snowflake, vos responsabilités couvrent l'ensemble du cycle de vie de la donnée. 1. Développement & Engineering : Développer et optimiser les pipelines de données complexes. Faire évoluer la plateforme Data pour répondre aux nouveaux besoins métiers. Intégrer les fonctionnalités avancées de Snowflake ( Snowflake Cortex et Snowflake Intelligence IA for SQL ) pour automatiser les analyses. 2. Run & Passation (Priorité court terme) : Assurer la reprise en main complète de l'environnement de production. Récupérer l'historique et les bonnes pratiques lors de la phase de passation (binôme avec le consultant actuel). Garantir la stabilité et la disponibilité des flux en production. 3. FinOps & Performance : Piloter l'optimisation des coûts liés à l'utilisation de Snowflake. Mettre en place des stratégies de monitoring de consommation et de tuning de performance.
Mission freelance
Tech Lead DevOps CIAM (AWS / SAP CDC Gigya / Cybersécurité)
Gentis Recruitment SAS
Publiée le
API
API REST
AWS Cloud
6 mois
Paris, France
1. Contexte de la mission Notre client déploie une plateforme CIAM basée sur SAP Customer Data Cloud (Gigya) afin de gérer l’authentification et la gestion des identités clients B2B et B2C . La plateforme actuelle comprend : Une base utilisateurs B2C Une base utilisateurs B2B Des bases en marque blanche pour des cas d’usage spécifiques Les enjeux stratégiques de la plateforme sont les suivants : Mise en place d’une expérience SSO unifiée , inspirée de FranceConnect Respect strict des exigences RGPD et cybersécurité Passage à l’échelle pour atteindre 13 millions d’utilisateurs à horizon 2028 Personnalisation des parcours utilisateurs sans impact sur le socle commun (master site) 2. Objectifs de la mission Le Tech Lead CIAM interviendra sur les axes suivants : Pilotage des évolutions techniques de la plateforme SAP CDC (Gigya) Définition et formalisation des standards d’intégration pour les applications B2B et B2C Garantie de la conformité réglementaire (RGPD) et des exigences cybersécurité Accompagnement et montée en compétence des équipes techniques internes 3. Périmètre d’intervention Architecture & Design Revue de l’architecture existante Conception et optimisation des parcours d’authentification Intégration des protocoles OIDC, OAuth2 et SAML Sécurité & Authentification Mise en œuvre de MFA granulaire Intégration OTP (SMS, email) Gestion des mécanismes anti-fraude (Captcha, protection des APIs) Performance & Scalabilité Automatisation des processus RUN Optimisation des performances et de la résilience Raccordement et onboarding applicatif à grande échelle Support & Expertise Rôle de référent technique CIAM Support aux équipes projet et applicatives Contribution à la formation et à la documentation technique 4. Livrables attendus Audit technique détaillé de la plateforme CIAM existante Roadmap d’évolution couvrant : Personnalisation des parcours MFA / OTP APIs et intégrations Procédures standardisées d’intégration applicative Plan de sécurisation conforme aux directives cybersécurité et RGPD 5. Profil recherché Compétences techniques requises Expertise confirmée sur SAP Customer Data Cloud (Gigya) et les architectures CIAM Maîtrise des protocoles d’identité : OIDC, OAuth2, SAML Solide expertise en cybersécurité et conformité RGPD Maîtrise du Cloud public , en particulier AWS Expérience d’intégration multi-applications à grande échelle Compétences en automatisation et scripting (Python, JavaScript) Maîtrise des API REST et des webhooks Connaissance des outils CI/CD et des extensions compatibles avec SAP CDC Mise en œuvre des bonnes pratiques DevOps (déploiement, monitoring, RUN automatisé) Compétences transverses Capacité à évoluer dans un environnement international Travail en contexte multi-projets et multi-équipes Forte capacité de structuration, de standardisation et de transmission
Mission freelance
DEVOPS & APPLICATION INTEGRATION FACTORY - 4 jours TT
EterniTech
Publiée le
Azure
CI/CD
Terraform
3 mois
250-420 €
Hauts-de-Seine, France
Au sein de la Direction des Systèmes d’Information (DSI) et plus précisément de la Direction Infrastructure Technique , le consultant interviendra dans l’équipe DEVOPS & Application Integration Factory . Rattaché(e) au Responsable de cette équipe, vous serez garant(e) de l’intégration applicative au sein du Système d’Information, en conformité avec les exigences d’architecture, de sécurité et de performance du Groupe. Vous jouerez un rôle clé dans la coordination des acteurs techniques , la mise en œuvre des solutions applicatives , ainsi que dans la transformation DevOps du SI.
Mission freelance
Développeur java react aws
Cherry Pick
Publiée le
AWS Cloud
IA
Java
12 mois
500-550 €
Paris, France
Tâches principales : • Se positionner comme un coach des équipes tech en place en apportant une expertise en GenAI • Permettre la montée en compétence des équipes DSI en intégrant des outils d’IA (Copilot, Claude Code) pour accélérer le développement et la documentation • Développer et maintenir des applications performantes (Java/Spring Boot, Angular/React, Node.js, etc.) en intégrant des assistants IA (Copilot, Claude Code) • Automatiser les tâches répétitives (tests, CI/CD, monitoring) pour gagner en productivité • Travailler sur des architectures modernes : APIs, Cloud PaaS/IaaS (AWS, Terraform) • Garantir la qualité et la sécurité des développements en s’assurant que les projets pilotes respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI • Collaborer étroitement avec les équipes produit, design et architecture • Coacher des équipes qui créent des solutions en utilisant l’IA comme assistant de la conception technique au monitoring en production.
Offre d'emploi
Développeur .NET / Azure Senior
Halian
Publiée le
.NET
ASP.NET
Microsoft SQL Server
2 ans
Paris, France
Mission : Vous participerez au développement et à l’évolution d'une application, hébergée sur Microsoft Azure , en collaboration avec les équipes IT et Business. Votre rôle sera de garantir la qualité technique, la cohérence des modules et le respect des bonnes pratiques. Responsabilités principales : Développer les nouveaux composants de l’application. Assurer la cohérence technique et la qualité du code (tests unitaires, modèles de données, bonnes pratiques). Rédiger les spécifications techniques et documents nécessaires (architecture, exploitation). Planifier les travaux, estimer les charges et identifier les risques. Collaborer avec les équipes infrastructures pour la mise en place de l’environnement Azure. Tester et déployer l’application sur Azure, corriger les anomalies. Accompagner les phases de validation (UAT, PROD) et garantir la qualité des livrables. Réaliser les tests et assurer la qualité des modules développés. Profil recherché : Diplôme Bac+5 (école d’ingénieur ou équivalent). Expérience de 5 ans minimum en développement informatique. Expertise sur Azure , .NET , API REST , et bases de données. Maîtrise des standards de qualité (Sonar, PR review) et des pratiques Agile (SCRUM) et DevOps . Français et anglais : niveau avancé. Autonomie, rigueur, esprit d’équipe et bonnes capacités de communication. Connaissance des marchés financiers ou de la gestion d’actifs (atout). Compétences techniques : Obligatoires : .NET 8+, C#, Core Microsoft SQL Server Blazor WebAssembly REST API Souhaitées : HTML5 / CSS3 Visual Studio 2022 GIT, Azure DevOps, Sonar Cloud Postman
Mission freelance
PMO IT Cloud AWS H/F
Karma Partners
Publiée le
AWS Cloud
6 mois
400-550 €
Île-de-France, France
Coordonner et soutenir plusieurs programmes et projets informatiques dans divers domaines. Participer aux comités d'architecture et aux discussions techniques avec différentes parties prenantes, notamment les équipes de sécurité. Gérer les contraintes telles que les délais, les défis techniques et les exigences réglementaires pour garantir le succès des projets. Maintenir une documentation de projet complète à l'aide de Jira et Confluence, et créer des présentations percutantes et des synthèses pour les comités de pilotage. Contribuer à l'identification des points de blocage, des actions correctives et des stratégies de mise à l'échelle/d'atténuation. Collaborer étroitement avec les équipes techniques pour documenter avec précision les problèmes et solutions informatiques complexes. Faire preuve d'adaptabilité face à l'évolution rapide des projets et des technologies, et fournir des analyses stratégiques sur la priorisation et l'allocation des ressources
Mission freelance
Ingénieur C#.net sénior
DEVATSCALE
Publiée le
.NET
API REST
AWS Cloud
3 mois
300-430 €
Bordeaux, Nouvelle-Aquitaine
Hello, Voici le descriptif du poste pour avancer ensemble si tu es en recherche actuellement: Développer et maintenir des APIs REST en C# / .NET dans un environnement cloud (AWS ou Azure). Intégrer l’ IA générative d ans les pratiques de développement quotidiennes. Automatiser les tâches répétitives du dev : structures de code, patterns, documentation, standards d’équipe. Utiliser l’IA comme outil d’aide à la conception pour faire évoluer l’existant et développer de nouvelles features. Garantir un haut niveau de qualité de code (Clean Code, tests, revues, CI/CD).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2287 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois