Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Data Architecte Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre d'emploi
Data Engineer - Lyon
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
ingénieur AI Automation en 100% télétravail
🚨 URGENT – Appel à tous les experts Freelance en IA & Automatisation ! 🚨 Nous recherchons un Automation & AI Solutions Engineer en freelance (remote) pour une mission de 12 mois . C’est une opportunité unique de travailler sur des projets d’ IA et d’automatisation de pointe (incluant GenAI avec LangChain ) visant à optimiser les opérations et à générer un réel impact business. 🎯 Vos missions : Concevoir et implémenter des workflows d’automatisation et des solutions IA/GenAI (Python, Java, LangChain). Intégrer des APIs, bases de données et services externes dans des pipelines d’automatisation. Développer, tester et déployer des modèles d’IA ( OpenAI, Azure AI Foundry, Hugging Face, etc. ). Collaborer avec les parties prenantes pour livrer des solutions scalables, performantes et sécurisées . 🔍 Profil recherché : Excellentes compétences en Python et Java . Expérience pratique avec LangChain et les frameworks GenAI . Maîtrise de l’intégration API et des bases de données ( SQL/NoSQL ). Expérience cloud ( AWS, Azure ou GCP ). Bonus : connaissance de Git, CI/CD, Docker/Kubernetes . 📌 Mission en télétravail , durée 12 mois – idéale pour un freelance prêt à relever un défi stratégique et à créer de la valeur concrète

Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Offre d'emploi
Tech lead microservices
Contexte Dans le cadre du renforcement de son pôle technique, une entreprise du secteur de l’efficacité énergétique recherche un(e) Tech Lead Microservices pour encadrer une équipe de développement et piloter la mise en place d’architectures distribuées modernes. Missions principales Leadership technique Définir et diffuser les bonnes pratiques de développement et d’architecture. Encadrer et accompagner l’équipe de développeurs (coaching, revue de code). Garantir la cohérence technique des projets et leur intégration. Conception & développement Concevoir et optimiser des services et API distribués. Participer à la migration d’applications vers une architecture microservices. Veiller à la qualité, la performance et la sécurité des développements. Collaboration Travailler en lien avec les équipes produit et DevOps. Contribuer à l’amélioration continue (tests, CI/CD, monitoring). Participer à la définition de la roadmap technique. Environnement technique Langages back-end : Java / Kotlin / .NET Core / Python (selon projets) Architecture : microservices, API REST, communication asynchrone (Kafka, RabbitMQ) Conteneurisation & orchestration : Docker, Kubernetes Cloud : AWS, GCP ou Azure (usage hybride possible) Bases de données : relationnelles (PostgreSQL, MySQL) et NoSQL (MongoDB, Redis) CI/CD : GitLab CI, Jenkins, ou équivalent Monitoring & observabilité : Prometheus, Grafana, ELK/EFK stack Méthodologies : Agile (Scrum / Kanban), DevOps, Infrastructure as Code (Terraform, Ansible) Collaboration : Git, Jira, Confluence, Slack/Teams
Offre d'emploi
Développeur Full stack - Python (Django) / React
Métiers: Développeur Fonctions Etudes & Développement Spécialités technologiques Type de facturation Assistance Technique (Facturation avec un taux journalier) Compétences Technologies et Outils Python; TypeScript; React; Django; GCP; Kubernetes; AWS; SQL; Azure Méthodes / Normes Agile Secteurs d'activités Services Informatiques Description et livrables de la prestation UN TEST TECHNQIUE ET PREVU PAR LE CLIENT AVANT LES ENTERTIENS. SEUL LES CVs AVEC UNE EXPERTISES DJANGO ET REACT SERONT ETUDIES. L'ANGLAIS ORAL EST UN PREREQUIS, LE BUDGET POUR CE BESOIN EST ENTRE 400€ et 450€. Pour l'un de nos clients dans le secteur bancaire, nous recherchons un développeur full stack pour intégrer l'équipe de développement de leur plateforme maison. Cette plateforme, une All Data Platform, a été conçue pour répondre aux enjeux de la data de demain dans le domaine de l’Asset Management. Basée sur les principes du Data Mesh, elle facilite l’ingestion et l’exploitation des données tout en offrant aux Citizen Developers un écosystème sécurisé, modulable et évolutif. Missions principales En tant que membre du lab, le/la prestataire sera responsable de : - Répondre à diverses demandes de POC (Proof of Concept) et de MVP (Minimum Viable Product) sur des sujets variés, toujours en lien avec la chaîne de valeur, - Participer à des missions annexes, courtes, pour réaliser des prototypes ou fournir un accompagnement technique à la cellule produit et aux Data Scientists, - Contribuer à l'amélioration continue des produits et services proposés par l'entreprise, - La prestation nécessitera du développement de prototypes et de l’accompagnement technique, - La prestation réalisera les missions en équipe et nécessitera une communication efficace et adaptée aux différents acteurs du projet, - Création d’applications cloud native sur des systèmes distribué pour les outils dédié à l’IA générative, - Construction d’outils pour aider à automatiser plusieurs processus métier, - Participation au support et à l’onboarding des business case sur la plateforme, - Création de services d’intégration de données, - Prise en charge des outils internes basés sur des systèmes distribués cloud natifs et proposition d’évolution, - Intégrations de solutions IA aux outils existants, - Participation à l’analyse des données et à la rédaction des spécifications fonctionnelles et techniques, - Intervention dans le projet (méthodologie AGILE), - Gestion des incidents post-production et correction du code, - Enrichissement de l’automatisation des tests, - Respect des délais impartis. - ANGLAIS ORAL NECESSAIRE

Offre d'emploi
DATA SCIENTIST SENIOR H/F
Nous recherchons un(e) Data Scientist Senior H/F, Spécialiste LLM & Speech to Text RIVA. Missions principales Concevoir, développer et optimiser des modèles d'intelligence artificielle de type LLM (Large Language Models) pour répondre aux besoins de l'entreprise (NLP, génération de texte, résumés automatiques, etc.). Déployer, configurer et intégrer la solution NVIDIA RIVA pour des applications Speech-to-Text à grande échelle. Participer à l'intégration des modèles IA (LLMs & STT) dans l'architecture logicielle de la société. Veiller à la performance, à l'éthique et à la qualité des modèles déployés (précision, biais, robustesse). Former et accompagner les équipes Data/Tech sur les bonnes pratiques liées à l'utilisation des LLMs et des solutions de Speech-to-Text. Réaliser une veille technologique régulière sur l'IA générative, LLMs, Speech Recognition et solutions NVIDIA. Compétences techniques Maîtrise des LLMs (Llama, Mistral, GPT, etc.) : fine-tuning, déploiement local/cloud, prompts engineering, évaluation. Expérience confirmée avec NVIDIA RIVA (installation, déploiement de pipelines de speech-to-text, adaptation à des vocabulaires ou domaines spécifiques). Maîtrise de Python, frameworks ML/NLP (PyTorch, TensorFlow, Transformers, HuggingFace, spaCy, etc.). Expérience sur l'optimisation GPU et le déploiement de modèles IA performants. Maîtrise des API REST, microservices, architecture cloud (AWS, GCP, Azure). Compétences en gestion et traitement de grands corpus textuels et audio.
Mission freelance
Architecte DEVOPS - RENNES
Pour l'un de nos clients basé à Rennes, nous sommes à la recherche d'un Architecte DEVOPS. Présentiel obligatoire. Profil recherché: Diplôme Bac+5 en informatique, génie logiciel ou équivalent. +5 ans d’expérience en tant qu’architecte DevOps, SRE ou ingénieur systèmes confirmé. Solide expérience en transformation des modèles opérationnels. Maîtrise des outils CI/CD (Jenkins, GitLab CI, CircleCI…). Expertise en automatisation et orchestration (Terraform, Ansible, Kubernetes, Docker). Connaissance approfondie des pratiques SRE (monitoring, observabilité, gestion des incidents). Expérience avérée sur les environnements cloud publics (AWS, GCP, Azure). Maîtrise des concepts d’Infrastructure as Code (IaC) et des environnements de conteneurs. Compétences en bases de données, stockage et solutions de mise à l’échelle. Forte capacité d’analyse et de résolution de problèmes complexes. Autonomie, proactivité et sens de l’initiative. Excellentes compétences relationnelles et communicationnelles. Pédagogie et aptitude à accompagner et former les équipes. Missions principales: Concevoir et mettre en place une architecture DevOps robuste, performante et pérenne. Promouvoir et renforcer la culture SRE au sein de l’organisation. Participer activement à l’ensemble des phases de la transformation digitale et opérationnelle. Collaborer étroitement avec les équipes Développement, Infrastructure, Sécurité et Opérations. Assurer la mise en œuvre des bonnes pratiques d’automatisation, monitoring, observabilité et gestion des incidents. Contribuer à la scalabilité, la fiabilité et la sécurité des plateformes et services. Accompagner et former les équipes internes pour favoriser le transfert de compétences.
Offre d'emploi
Adobe Incident Manager
Vous serez le point de contact principal pour la gestion des incidents sur l’ensemble des produits Adobe Experience Cloud (AEM, Target, Analytics, Campaign…), en coordination avec les équipes IT internes, les prestataires, et l’éditeur. Parlons missions : Gérer les incidents de bout en bout (détection, résolution, clôture) sur l’écosystème Adobe Piloter les incidents majeurs en tant que commandant d’incident Réaliser les analyses de causes racines (RCA) et proposer des actions préventives Maintenir une communication fluide avec toutes les parties prenantes Améliorer les processus de gestion d’incidents Documenter les erreurs connues et guides de résolution Collaborer avec les éditeurs (Adobe, etc.) pour le traitement des problèmes complexes Contribuer à l’optimisation de la performance et à la détection proactive des incidents Parlons de vous : Au moins 5 ans d’expérience en gestion d’incidents IT, dont au moins 3 ans sur les produits Adobe Très bonne maîtrise d’au moins 2 solutions de l’Adobe Experience Cloud Pratique des outils de gestion des incidents : ServiceNow, Jira… Compétences en monitoring : Splunk, Dynatrace, New Relic… Connaissances ITIL (certification = un plus) Bon relationnel, leadership en situation de crise, sens du service Certifications Adobe Experience Cloud et/ou ITIL appréciées Connaissance de Salesforce, Azure, GCP = un plus Mission 1 an, basé à Paris

Mission freelance
FINOPS AWS – temps partagé
Contexte Contexte de la mission : Le consultant devra mener des missions sur les 3 socles AWS, GCP et AZURE ainsi que les consommations à la maille de l’organisation du client final (consommations liées à des usages applicatifs). Un focus particulier est attendu sur le périmètre AWS. MISSIONS Ce rôle de FINOPS Global est en lien avec les FINOPS métiers afin de piloter de manière centralisée les optimisations financières recherchées pour diminuer les factures des 3 clouds providers. • Ceci passe par 3 phases : o Capter l’information financière, pilotage du consommé, gestion du budget et des alertes o Optimiser la consommation en proposant des recommandations o Opérer le changement et contrôler l’effet des changements • Le consultant devra animer la filière FINOPS, communiquer et sensibiliser sur les optimisations nécessaires et les recommandations et bonnes pratiques • Il devra aussi mener des sessions de sensibilisation et de formation auprès de différentes communautés (SysOps, architectes, experts…) • Il aura en charge la reventilation des coûts auprès des direction métiers via les outils du client • Il sera amené à participer aux ateliers de cadrage lors de la phase de BUILD des applications afin d’émettre des recommandations et optimisations avant que l’architecture ne soit totalement décrite. Tâches à réaliser : · Réaliser la surveillance des coûts des socles d’infrastructure, du ou des Cloud Providers concernés du client · Proposer des solutions d’optimisations des coûts des socles d’infrastructures cloud Public · Participer aux différentes instances de pilotage du projet (Comitologie, Cérémonies SAFe Agile, réunions de services…) · Réaliser la surveillance des coûts des applications du ou des Cloud Providers concernés · Proposer des solutions d’optimisation des coûts des applications cloud attribuées à son périmètre · Audit des architectures du client final sur les coûts des solutions choisies dans le cadre des projets en BUILD ou en RUN

Offre d'emploi
Ingénieur devops
Missions principales Automatiser et industrialiser les déploiements applicatifs (CI/CD) Administrer les plateformes cloud (AWS, Azure ou GCP) Mettre en place et maintenir l'infrastructure via des outils IaC (Terraform, Ansible…) Superviser, monitorer et optimiser la performance des environnements Sécuriser les environnements d'exécution (gestion des secrets, certificats, RBAC, etc.) Collaborer avec les équipes de développement pour améliorer la livraison continue Gérer les incidents, assurer la disponibilité et la résilience des services
Offre d'emploi
Ingénieur Intelligence Artificielle / Data Scientist (H/F)
Nous recherchons un(e) Ingénieur(e) en Intelligence Artificielle / Data Scientist pour structurer et porter nos projets IA, en collaboration étroite avec les équipes R&D, produit et en réponse aux besoins clients. Vous intégrez une équipe Tech d’une vingtaine de personnes, organisées en squads produits, et serez impliqué(e) sur l’ensemble du cycle de développement, aux côtés des Tech Leads et Architectes, avec une réelle influence sur les choix d’architecture. Selon vos envies, vous pourrez aussi contribuer aux comités transverses R&D (technique, agile, innovation...). Projets en cours : Analyse automatique de documents réglementaires (NLP + NER) Génération automatisée de workflows, formulaires et rapports intelligents Intégration d’agents IA dans l’interface utilisateur Déploiement de moteurs de recherche sémantique (RAG hybride, reranking, vector search…) Stack technique : IA / Data : Python, Pandas, Scikit-learn, Hugging Face, FastAPI, OpenAI API, PyTorch, TensorFlow (ouvert à d’autres outils) Bases de données : MariaDB, PostgreSQL, MongoDB, Elasticsearch, bases vectorielles (Chroma, Activeloop…), graphes (Neo4J…) DevOps : Docker, Swarm > Kubernetes, GitLab CI/CD Environnement général : PHP / Symfony, Vue.js 3 / TypeScript, Jira, Confluence, architecture microservices Profil recherché : Diplôme Bac+5 en informatique, mathématiques appliquées, IA ou équivalent (école d’ingénieur ou université) Minimum 3 ans d’expérience en Data Science, modélisation et intégration technique, avec idéalement des projets IA à votre actif Compétences techniques essentielles : Maîtrise avancée de Python et des principaux outils IA, Data Science, Machine Learning Bonne compréhension des enjeux liés aux produits SaaS BtoB (performance, robustesse, monitoring) Solides compétences en SQL et gestion de bases relationnelles Maîtrise des bases de données vectorielles (Chroma, Activeloop…) et techniques d’embedding (Word2Vec, GPT…) Connaissance des techniques NER, embeddings, chain of thought, RAG, function calling… Familiarité avec les environnements cloud (Azure, Google Cloud, AWS) Atouts supplémentaires : Connaissance des éditeurs de code assisté par IA (Cursor, Github Copilot) Expérience avec les bases orientées graphes (Neo4J, OrientDB…) Connaissances web PHP / Symfony / Vue.js / TypeScript Vous souhaitez relever des challenges techniques ambitieux et rejoindre une équipe dynamique au cœur d’un projet innovant ? Ce poste est fait pour vous !

Mission freelance
SRE Azure et AWS sénior (fiabilisation d'environnements)
Un grand groupe international recherche un SRE / Architecte confirmé pour renforcer son équipe (4–5 personnes) et assurer la fiabilité, l’observabilité et la résilience de ses plateformes digitales. Ces plateformes couvrent un périmètre mondial et stratégique : activités industrielles, trading, shipping, ressources humaines et énergies renouvelables. L’objectif est de garantir la haute disponibilité des applications et la résilience des infrastructures sur un environnement multi-cloud (Azure & AWS). Missions principales : Concevoir, améliorer et fiabiliser des architectures existantes sur Azure et AWS . Mettre en place et optimiser les mécanismes de monitoring / observabilité (Azure Monitor, Prometheus, Grafana, OpenTelemetry). Implémenter et automatiser les sauvegardes et restaurations (bases de données, stockage) ; détecter les échecs et relancer automatiquement. Participer à la mise en place de plans de continuité et de reprise d’activité (DRP/BCP) . Contribuer à la gestion proactive des incidents : détection, alerting, notification, redondance, mécanismes de bascule. Travailler sur la fiabilité applicative (optimisation run, robustesse des environnements). Accompagner les équipes dans les bonnes pratiques SRE et être force de proposition sur les choix techniques. Environnement technique Clouds : Azure (priorité), AWS (également en production), GCP de façon marginale (Apigee – API Management). Observabilité : Azure Monitor, Application Insights, Container Insights, Prometheus, Grafana, OpenTelemetry. Infra / automatisation : Terraform, GitHub Actions (YAML), scripting (Bash, TypeScript). Bases de données & stockage : services natifs Azure & AWS (sauvegardes/restaurations). Containers : Kubernetes managé (AKS / EKS).

Offre d'emploi
Chef de projet NLP LLM
Contexte du poste Un acteur de référence du secteur de l’édition numérique et de la gestion documentaire recherche un(e) Chef de Projet & Développeur en NLP pour valoriser un large patrimoine textuel et accélérer sa transformation numérique grâce à l’Intelligence Artificielle. Ce poste hybride combine pilotage de projets IA et développement concret de solutions NLP , avec un fort impact stratégique et opérationnel. Missions principales Volet Chef de projet Piloter des projets IA orientés NLP, de la phase d’idéation jusqu’à la mise en production. Analyser les besoins métiers liés à l’exploitation de corpus textuels et proposer les solutions techniques adaptées. Collaborer avec des experts métiers et techniques pour prioriser et cadrer les livrables. Définir et suivre des KPIs de performance, assurer l’amélioration continue des solutions mises en place. Volet Développeur Concevoir et développer des pipelines NLP (extraction, transformation et exploitation de données textuelles complexes). Implémenter des modèles de type RAG (Retrieval Augmented Generation) et des agents conversationnels . Optimiser les algorithmes, embeddings et LLMs pour améliorer robustesse et performances. Développer des APIs et assurer l’intégration des solutions dans l’écosystème existant. Réaliser des POCs et prototypes afin de valider rapidement de nouveaux concepts. Environnement technique Langages : Python (Pandas, NumPy, Scikit-learn, PyTorch/TensorFlow). NLP & IA : LLMs, embeddings, RAG, modèles de classification/extraction, Hugging Face. Data : pipelines ETL, bases de données textuelles, outils d’indexation (ElasticSearch, FAISS). Déploiement : APIs REST, conteneurs (Docker), CI/CD. Outils collaboratifs : Git, Jira, Confluence, environnement cloud (AWS / Azure / GCP selon projets).

Mission freelance
Data Engineer confirmé H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer confirmé H/F à Hauts-de-France, France. Contexte : Le profil intégrera une équipe Data en charge d'un périmètre fonctionnel Les missions attendues par le Data Engineer confirmé H/F : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data

Offre d'emploi
IVVQ Cloud
SII Aix Méditerranée accompagne ses clients dans l’intégration des nouvelles technologies, procédés et méthodes de management de l’innovation pour contribuer au développement de leurs futurs produits ou services et faire évoluer leurs systèmes d’information. Nous conjuguons de manière durable et vertueuse la satisfaction de nos clients avec le bien-être et l’épanouissement de nos collaborateurs tout en délivrant un haut niveau de performance. Au travers de notre entité composée de quatre-vingts consultants et de leurs expertises liées au développement logiciel, au test et à la chefferie de projet, nous intervenons aujourd’hui sur des projets à forte valeur ajoutée, ambitieux et à l’international autour des secteurs du numérique, de l’industrie et des services en assistance technique et/ou en engagement. Nous couvrons un vaste secteur vous permettant de trouver une opportunité proche de chez vous : nous disposons d’opportunités sur Aix-en-Provence, Venelles, Marseille, Gémenos ou encore Avignon. Vous aurez le choix de rejoindre une équipe ambitieuse, talentueuse et engagée sur des sujets tels que : la conception d’une carte à puce implantée dans des documents biométriques, le développement d’une application de livraison de colis, l’innovation dans le suivi de cargos maritimes ou bien encore le développement d’applications de gestions d’évènements autoroutiers ou de plateforme monétique. Rencontrons-nous et valorisons ensemble les métiers de l’ingénieur et son rôle de Changeur de Monde . Notre client grand compte, ouvre un poste en qualité d’Ingénieur IVVQ Cloud (F/H) près de Marseille (13). Dans le but de renforcer leur offre et améliorer leurs produits, le client souhaite : - Procéder à de la transformation de Cloud (AWS/GCP) - Améliorer l’interface utilisateur Web - Amélioration les processus d’intégration et de validation automatiques. VOS MISSIONS : - Analyser l’architecture existante et fournir des recommandations liées au contexte industriel (Sécurité, performance, robustesse...) - Proposer des axes d’amélioration et des lignes directrices qui seront intégrées par les équipes de développement - Participer à la transformation du Cloud (dockerisation) - Mettre en œuvre les améliorations du produit identifiées et l’automatisation de la validation - Processus logiciel : Agile - Modèle DevOps
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.