L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 736 résultats.
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Mission freelance
🚀 Développeur Backend Python – Microservices - Lyon
Tenth Revolution Group
Publiée le
API REST
AWS Cloud
FastAPI
12 mois
220-400 €
Lyon, Auvergne-Rhône-Alpes
🎯 Contexte de la mission Dans le cadre d’un renfort urgent, nous recherchons un Développeur Backend Python expérimenté pour intégrer une équipe tech et contribuer activement au développement et à la livraison de microservices en environnement cloud. Objectif : produire, tester et livrer du code robuste , orienté production. Ce n’est pas un poste R&D. On cherche quelqu’un qui exécute, structure et délivre. 🛠️ Missions principales Développement de microservices en Python Conception et implémentation d’ API REST Rédaction de code propre, maintenable et testé Mise en place et exécution de tests (unitaires / intégration) Participation aux choix techniques backend Contribution à l’amélioration continue des pratiques de développement Collaboration avec équipes produit / infra
Mission freelance
Senior Platform Engineer (CaaS)
Codezys
Publiée le
Ansible
AWS CloudFormation
Azure
12 mois
Paris, France
Nous ne recherchons pas un profil "Ops" traditionnel, mais un véritable " Platform Builder". Le candidat idéal doit posséder une solide culture produit et avoir déjà construit ou maintenu des plateformes CaaS/PaaS internes à grande échelle. Voici les points non-négociables (Hard Skills) : • Kubernetes (Expertise avancée) : Architecture, networking (CNI), sécurité et gestion de clusters managés (EKS/GKE). • Infrastructure as Code : Maîtrise experte de Terraform & Terragrunt en production (multi-stack, gestion d'état). • GitOps & CI/CD : Expérience impérative de ArgoCD (ApplicationSets, bootstrap) et de GitLab CI (pipelines dynamiques). • Cloud Providers : Expertise confirmée sur AWS ou GCP (VPC, IAM, OIDC). Les "Plus" qui feront la différence : • L'écosystème Cloud-Native : Karpenter, Kyverno, External-Secrets, KEDA. • Observabilité : Stack OpenTelemetry et Grafana (Mimir, Loki, Tempo). • Certifications : CKA, CKAD ou CKS.
Mission freelance
Data Engineer Azure Data Factory - CosmosDB
Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Mission freelance
DevOps azure Python IAM sur Paris
EterniTech
Publiée le
Azure DevOps
CI/CD
IAM
3 mois
Paris, France
Nous recherchons pour un de nos clients dans le secteur des assurances un Consultant DevOps Azure – Python / IAM capable d’accompagner des équipes métiers dans l’exploitation, l’optimisation et la montée en compétence autour de leurs modèles (ex : hydrologie, sismique, etc.). Le périmètre comprend des sujets d’infrastructure cloud, de code Python, d’outillage DevOps et de support opérationnel Localisation : Paris Durée : 6 à 12+ mois (mission longue) Secteur : Assurance Missions principales Accompagner les équipes métiers dans le développement, l’optimisation et l’exécution de leurs workflows Python Mettre en place et maintenir des solutions Azure Cloud robustes et automatisées Développer/optimiser des pipelines CI/CD Structurer une approche Infrastructure as Code Conseiller et sécuriser la plateforme (IAM, Identities, Permissions)
Mission freelance
Architecte Data - Lyon
Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Architecture
6 mois
700-870 €
Lyon, Auvergne-Rhône-Alpes
Architecte Data / Cloud Senior (Expert)🎯 Contexte & Enjeux Dans le cadre de la transformation de notre client (Secteur d' Assurance) vers un Système d’Information Data Centric , nous recherchons un(e) Architecte Data / Cloud Senior capable d’accompagner la modernisation de notre infrastructure Data On-Premise et Cloud. Cette transformation stratégique vise à bâtir un SI : Agile Évolutif Résilient Orienté données Aligné avec nos enjeux long terme L’expert(e) interviendra en transverse auprès des équipes MOA, Techlead, Développeurs et DBA afin de garantir une intégration fluide des architectures Data modernes. 🎯 Objectifs de la mission Évaluer l’architecture existante et recommander les meilleures pratiques Data / Cloud Concevoir et mettre en œuvre une architecture Data Centric robuste et scalable Définir et implémenter les patterns Data (Batch, Streaming, Event-driven, Microservices data, etc.) Assurer l’intégration cohérente des environnements On-Premise et Cloud Accompagner les équipes internes (MOA, Tech, DBA) Garantir la sécurité, la gouvernance et la performance des données Assurer le transfert de compétences Produire une documentation complète (HLD, LLD, DAT, schémas d’architecture) 📦 Livrables attendus Dossier d’architecture cible (HLD/LLD) Schémas d’urbanisation Data Blueprint Data/Cloud (multi-cloud / hybrid) Recommandations techniques formalisées Plan de migration On-Premise → Cloud Documentation des pipelines Data Guide de bonnes pratiques Support aux équipes techniques Plan de gouvernance et sécurité des données 🛠 Responsabilités principales Définir l’architecture Data (Batch & Streaming) Mettre en œuvre des pipelines temps réel (Kafka, Spark Streaming, Beam) Concevoir des architectures multi-cloud (AWS, GCP, Azure, Oracle Cloud) Intégrer les solutions NoSQL (CouchDB, MongoDB) Concevoir des architectures sécurisées (Keycloak, IAM, RBAC) Superviser les choix techniques liés aux bases Oracle Accompagner l’industrialisation sous OpenShift Garantir la performance, la scalabilité et la résilience 👤 PROFIL RECHERCHÉ🎓 Formation Bac+5 (Ingénieur / Master en Informatique / Data / Cloud) Minimum 8 à 10 ans d’expérience dont plusieurs années en architecture Data
Mission freelance
100960/Product Owner technique Socle IA et Agentique (IA Gen) de la Plateforme Data & IA - Nantes
WorldWide People
Publiée le
IA
12 mois
400 €
Nantes, Pays de la Loire
Product Owner technique sur le périmètre Socle IA et Agentique (IA Gen) de la Plateforme Data & IA. L’objectif est de structurer et d’industrialiser les capacités plateforme qui permettent : - Côté Socle IA, de fabriquer, déployer et opérer des modèles d’IA classique (cycle de vie ML de bout en bout) ; - Côté IA Gen, d’outiller le passage à l’échelle de l’agentique (outils, frameworks, patterns) et de sécuriser le cycle de vie global d’un produit agentique (de la conception à l’exploitation). Les services LLM et les services partagés (OCR, Embedder, Speech2Text) étant déjà pilotés par des PO, l’enjeu de cette mission est de compléter le dispositif sur la brique agentique et de garantir une industrialisation robuste : réutilisabilité, qualité de service, observabilité, gouvernance d’usage et adoption. Cadrage & priorisation (avec le PM) - Qualifier les besoins, formaliser les cas d’usage et critères d’acceptation. - Décliner la vision PM en backlog/roadmap opérationnels, arbitrer valeur/risque/effort. Socle IA – cycle de vie ML - Piloter les évolutions plateforme permettant la fabrication et le déploiement : industrialisation des parcours, standards, documentation, templates - Contribuer aux exigences run : observabilité, performance, fiabilité, exploitabilité. IA Gen – outillage agentique - Définir et piloter la mise en place des outils & frameworks (orchestration, composants réutilisables, patterns). - Structurer le cycle de vie agentique : intégration, tests, évaluation, supervision, sécurité/guardrails, itérations. Pilotage delivery - Animer le backlog (refinement, planning, démos), suivre l’avancement, gérer dépendances/risques. - Coordonner dev/lead tech/data scientists/ops/archi, et sécuriser la qualité des livraisons. Adoption & documentation - Produire/mettre à jour la doc produit (guides, exemples, bonnes pratiques) et accompagner les équipes dans la prise en main. - Mettre en place des KPIs (usage, satisfaction, incidents, coût) et alimenter l’amélioration continue.
Offre d'emploi
Consultant DataOps / Administrateur Hadoop
Craftman data
Publiée le
Ansible
CI/CD
Docker
La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Mission freelance
Lead Développeur Back-End Java
Sapiens Group
Publiée le
AWS Cloud
DevOps
Docker
12 mois
480-500 €
Lille, Hauts-de-France
Missions principales Développement et qualité du code Développer et maintenir les services back-end en Java 17/21 avec Spring Boot Garantir une qualité de code optimale (tests, code review, bonnes pratiques) Mettre en place et suivre les guidelines de développement (Quality Gates, couverture de tests, pyramide de tests) Analyser les rapports d’intégration continue et assurer leur correction Leadership technique Définir et mettre en place le socle technique du projet Fournir une direction technique et architecturale Harmoniser les pratiques de développement au sein de l’équipe Être le référent technique de l’équipe Scrum DevOps et industrialisation Contribuer à la mise en place et à l’optimisation des pipelines CI/CD Participer à l’ industrialisation des déploiements (Docker, GitLab CI) Collaborer avec les équipes DevOps et infrastructure Gestion de la dette technique Identifier, suivre et prioriser la dette technique Sensibiliser l’équipe aux bonnes pratiques de développement Mettre en place des indicateurs de qualité et de performance Contribution aux activités Agile Participer aux cérémonies Scrum (daily, sprint planning, rétrospectives, démos) Contribuer aux estimations, cadrages techniques et études de faisabilité Participer à l’animation du backlog produit et technique
Mission freelance
Expertise sécurité Azure / Palo Alto / F5
CS Group Solutions
Publiée le
Azure
6 mois
Paris, France
Nous recherchons un Expertise Azure et Palo Alto/ F5 Compétences techniques Azure - Expert - Important Palo Alto - Confirmé - Important F5 - Confirmé - Important Description détaillée Mission d’expertise technique pour l’ouverture urgente d’une application du client sur Internet via l’infrastructure Azure. L’expert doit maîtriser pleinement les composants de sécurité en cours de déploiement : Le livrable est - Compétences techniques Palo Alto (workloads) F5 Azure DNS Azure Firewall Environnement Microsoft Azure
Mission freelance
Architecte applicatif E-commerce .NET & Cloud Azure
PROPULSE IT
Publiée le
.NET
Azure
Cloud
24 mois
325-650 €
Paris, France
Contexte Pour l'un de nos clients nous recherchons un(e) Architecte applicatif .NET & e-commerce. Au sein de l'équipe Architecture, il(elle) contribuera en particulier à la construction du framework autour duquel s'architecture la refonte sur Azure de la plateforme eCommerce de notre client, à la sélection des composants & librairies constituant ce framework, à son développement, à sa documentation et accompagnera les équipes de développement dans leur adoption et leur utilisation de ce framework. Il(elle) participera également à l'animation des communautés de pratique Tech & Craft. Il(elle) possède une capacité relationnelle et méthodologique permettant de faire progresser les équipes dans l'application des bonnes pratiques de conception et de développement. Description Conception • Etudie les besoins des équipes développant la nouvelle plateforme Cloud E-commerce en s'appropriant la stratégie long terme de l'entreprise, avec une vision d'ensemble du Système d'Information, aussi bien d'un point de vue technique que fonctionnel. • Participe à la conception du socle logiciel, basé sur une architecture micro-service REST, micro-frontend, s'appuyant sur les technologies Azure (ACA) et AspNetCore (dotnet 8). • Participe à la construction de la vision moyen/long-terme du Système d'Information : - Assure une veille technologique ; - Recherche les trajectoires de mutualisation des SI des deux enseignes ; - Détermine les patterns d'architecture permettant de répondre à ces besoin ; - Participe à la construction de la roadmap technique de la Digital Factory. Réalisation • Participe au développement des composants de framework et est un acteur clé pour assurer la qualité de la réalisation de ce socle : • Utilisabilité par les équipes, • Qualité du code • Performance • Pérennité • Maintenabilité • Documentation • Accompagne les équipes dans la mise en œuvre de ce framework • Participe à l'animation des communautés de pratiques en partageant son expérience et son expertise avec l'ensemble des développeurs de la Digital Factory ; Livrables Essentiellement des composants de framework et la documentation associée.
Mission freelance
Data Engineer IA & API (GCP & AWS)
Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Docker
6 mois
460-580 €
Courbevoie, Île-de-France
Nous recherchons, pour le compte de notre client dans le secteur de l’énergie , un(e) Data Engineer Cloud afin de renforcer ses équipes data et accompagner des projets stratégiques à forte valeur ajoutée. Compétences clés indispensables Excellente maîtrise de Python Solide expérience sur AWS , notamment Redshift Mise en place et orchestration de pipelines data avec Apache Airflow Infrastructure as Code avec Terraform Développement d’API avec FastAPI Conteneurisation avec Docker Très bonne maîtrise du SQL et de la modélisation de données Atouts majeurs Expérience sur Google Cloud Platform (GCP) Connaissances ou intérêt fort pour l’ IA Agentic (agents autonomes, workflows intelligents, LLMs) Sensibilité DataOps / MLOps Expérience sur des architectures data modernes Profil attendu Formation Bac+5 (école d’ingénieur, université ou équivalent) 3 à 6 ans d’expérience en Data Engineering (adaptable) Autonome, rigoureux(se) et orienté(e) solutions Bon relationnel et esprit d’équipe Curiosité technologique et goût pour l’innovation 📍 Localisation : Courbevoie
Mission freelance
DBA Azure PaaS Services / SQL Server (h/f)
emagine Consulting SARL
Publiée le
1 mois
640-660 €
92250, La Garenne-Colombes, Île-de-France
Localisation : La Garenne-Colombes / 50% télétravail Durée : 3 ans Résumé Le rôle principal consiste à renforcer l'équipe DBA pour la conception et l'exploitation de solutions cloud dans un contexte cloud first (Azure/AWS). L'objectif est d'accompagner les développements et projets tout en assurant un environnement de haute disponibilité et une transformation de l'infrastructure informatique. Responsabilités : Travailler en environnement de haute disponibilité. Maitriser les failovers SQL clusters sous Windows. Gérer les demandes des équipes de support et de développement sur les évolutions nécessaires des bases de données. S’intégrer aux processus agiles des équipes de développement. Collaborer étroitement avec les équipes infrastructure pour appliquer les normes infra. Contribuer à la transformation de l'infrastructure informatique vers le cloud. Définir l'architecture d'infrastructure pour les projets d'entreprise. Rédiger des documents techniques. Déployer et configurer des bases de données PaaS. Automatiser les déploiements de services cloud via Azure DevOps. Compétences : Architecture MS SQL Server Gestion de production MSSQL Server Scripting (Bash, Python, PowerShell) Connaissance avancée des systèmes Windows Expérience avec des environnements cloud (AWS RDS, Azure Database) Maitrise des déploiements en CI/CD via Azure DevOps
Offre d'emploi
Responsable de Production & Infrastructure IT
BLOOMAYS
Publiée le
AWS Cloud
54k-65k €
Puteaux, Île-de-France
Rattaché·e à la DSI, vous êtes garant·e de la performance, de la fiabilité et de l’évolution des infrastructures IT du groupe (environnements siège et succursales). Vous intervenez dans un contexte multi-sites (100+ entités), avec une forte composante cloud (AWS) et un écosystème majoritairement SaaS. Votre rôle est double : Assurer une production robuste, sécurisée et industrialisée. Apporter une véritable hauteur de vue technique pour challenger partenaires, équipes internes et choix d’architecture. Vos responsabilités principales 1. Pilotage de la production & du support Garantir la disponibilité, la performance et la sécurité des infrastructures (principalement AWS). Superviser l’activité support (300 à 400 tickets/mois, majoritairement N1/N2) et poursuivre l’automatisation des processus (on/offboarding, IAM, workflows). Mettre en place et suivre les indicateurs de performance, de supervision et de qualité de service. Industrialiser les environnements dans une logique de standardisation et de duplication (modèle multi-sites). 2. Architecture & gouvernance technique Co-construire avec la DSI la stratégie d’architecture (cloud, réseau, sécurité, interconnexions SaaS). Challenger les choix techniques (stacks, bases de données, évolutions d’infrastructure, gestion des obsolescences). Assurer la cohérence entre les besoins applicatifs (équipes produit/dev) et les contraintes d’infrastructure. Apporter une réelle capacité de décision technique et éviter les logiques de “passe-plat” entre équipes et infogérants. 3. Pilotage des partenaires & infogérants Encadrer les prestataires (hébergeurs, SRE, infogérants AWS, éditeurs SaaS). Challenger les recommandations, maîtriser les coûts, sécuriser les engagements (SLA). Garantir un haut niveau d’exigence dans l’exécution et la qualité des livrables. 4. Projets & transformation Participer activement aux projets structurants (évolution d’architecture, modernisation, sécurité, intégration de nouvelles solutions, POC IA). Contribuer à l’amélioration des pratiques (processus, CI/CD, gouvernance technique). Intégrer les enjeux de sécurité et de scalabilité dans chaque décision. Équipe & organisation Vous encadrez une petite équipe composée notamment : de profils support (alternants et technicien), d’un administrateur systèmes & réseaux, en interaction étroite avec un SRE externe et les équipes de développement produit. L’environnement est agile, réactif et orienté delivery court. La rigueur est attendue, mais sans lourdeur excessive de type cycle en V.
Offre d'emploi
DEV LEAD POWER BI
UCASE CONSULTING
Publiée le
Azure
Azure Synapse
Microsoft Power BI
3 ans
40k-60k €
400-500 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un Dev lead Power BI. Description détaillée des tâches qui constituent la mission : Accompagner, mettre en place une animation de mentoring avec nos développeurs BI / Data Analysts, Recueil des besoins utilisateurs, étude de faisabilité, rédaction de spécifications, Concevoir, développer, déployer et maintenir des tableaux de bord et rapports construits autour de Power BI (Desktop & Service), Concevoir et mettre en place la modélisation des données (Modèles en étoile, relations), Accompagner la mise en place de l’architecture logicielle et data adaptée au cas d’usage du projet, Garantir que les développements réalisés correspondent bien au standard Microsoft et surtout à celui du groupe. Garantir que les développements réalisés intègrent les normes de sécurité (RLS gestion des accès), Réaliser des tests de cohérence de données (DAX) et procéder au dépannage, - Row Level Security, Tester la qualité des données et publier les rapports (Gestion des Espaces de travail / Apps), Prendre part aux écritures de la documentation technique et fonctionnelle pour documenter les modèles et indicateurs existants, Transformation et enrichissement des données (via Power Query) à partir des sources de production, Optimisation / Performances (Optimisation du DAX et des temps d'actualisation), Veille technologique / évolutions de Power BI et de la Power Platform, Support aux utilisateurs. Résultats attendus et/ou livrables avec échéancier si besoin La documentation technique doit être mise en place sur les projets sur lesquels le prestataire sera positionné. Des revues de code doivent être faites. Respect de la chaine de livraison et versionning des livrables.
Mission freelance
Développeur Java AWS (h/f)
emagine Consulting SARL
Publiée le
AWS Cloud
Java
3 ans
Île-de-France, France
Il s’agit d’une mission de développeur Senior JAVA AWS. La tribe est responsable de l’alimentation et l’exposition des données descriptives des assets à savoir : les établissements, les services associés et leurs informations descriptives. L’équipe API se compose d’un Product Owner, d’un TechLead, 4 développeurs et d’un QA. Elle a 2 missions : Assurer le développement de nouvelles fonctionnalités sur l’ensemble des API du périmètre. Ces API REST (4 au total) fournissent les détails descriptifs de leurs assets. Il s’agit d’applications Java/Spring hébergées sur le Cloud AWS. Assurer développement de notre nouvelle chaîne CI/CD qui amènera l’équipe vers de l’intégration continue et du déploiement continu. La CI/CD valide de manière automatique et complète l’application : tests unitaires, tests d’intégration, mutation testing, quality gates… L’équipe délivre une fois par Sprint en production. 1- Vos missions et responsabilités Au sein de cette Feature Team, en tant que développeur vous devrai : • Participer à la conception et maintenance des services du projet • Analyser et concevoir des systèmes adaptés au contexte du projet • Analyser, identifier et traiter les dysfonctionnements • Effectuer des tests unitaires • Participer aux différents rituels de l’équipe • Participer à la relecture du code • Rédaction de documentations techniques • Être force de proposition dans la résolution de problèmes, d’amélioration de la qualité du code
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5736 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois