L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 31 résultats.
Offre d'emploi
Ingénieur DevOps Big Data (H/F)
Publiée le
Ansible
Apache Kafka
Cloudera
1 an
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Offre d'emploi
Expert Support Production Instant Payments et Cloud
Publiée le
Ansible
Openshift
1 an
40k-45k €
400-530 €
Île-de-France, France
Télétravail partiel
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans l'objectif d'assurer le support de la Production Instant Payments, Global Money Transfer - Services groupe des Virements internationaux (GMT) et API Connectivity. Une entreprise leader en services financiers modernise son système d'information de paiements pour le groupe. La première étape de cette transformation était de créer une solution centrale pour les virements instantanés, avec des technologies modernes, notamment Kafka, MongoDB, Akka, Cassandra, Angular, PostGreSQL. La donnée étant centrale dans cette nouvelle solution de paiements, chaque évènement est intégré dans un Data Hub. La solution est déployée dans les différentes entités du groupe, à savoir la Belgique, le Luxembourg, l'Italie, et les pays CIB (Allemagne, Portugal, Espagne, Hollande, Autriche, Hongrie). Le programme est stratégique pour le groupe et s'inscrit sur plusieurs années, évoluant avec les réglementations (Rule Book, IPR…). Deux solutions cohabitent actuellement : Solution V1 sur une infrastructure VM legacy classique, dite "On premise" Solution V2 sur une infrastructure Cloud dédiée mise en œuvre en partenariat avec IBM, dite dMZR ou dCloud Une migration de la solution V1 vers la solution V2 a eu lieu pour toutes les différentes entités à l'exception de CIB Hongrie. La solution API Connectivity est une passerelle permettant à des clients Corporate de réaliser des opérations de paiements (virements SEPA ou virements SCT Instantanés) vers leurs propres clients. Missions Suivi opérationnel de la plateforme New Payment Engine (SEPA Instant payments), des services groupe GMT (Virements Internationaux) et API Connectivity (New Connectivity, OpenBanking, Request To Pay) Exploitation et garant de la continuité de l'activité de son périmètre Expertise d'un service de Support en 24/7 (avec participation à la rotation pour les Astreintes en Heures Non Ouvrés) et maintien de la documentation du patrimoine Point d'entrée sur les sujets production pour les entités et l'ensemble des acteurs (Squads IT.PS et BCEF IT, CMCT, ITGP, Prodsec, Telecom, BP2I) et en charge des incidents, problèmes et des demandes d'évolution (suivis bout en bout, diagnostics, livraisons en production) Proposition et réalisation des optimisations si opportunités (automatisation / simplification / Standardisation) Construction et pilotage de Dashboards de Monitoring (Kibana, Sysdig, Dynatrace) Maintien de la documentation d'exploitation (DE/DI, Confluence, Sharepoint) Gestion des environnements Production et Hors Production Expertise en tant que Référent technique sur la gestion des certificats et de la chaine DevOps CI/CD (ArgoCD, Digital AI, Ansible Tower) Contacts réguliers avec les équivalents dans les différentes entités IT Métiers voir Métiers Support applicatif et fonctionnel aux utilisateurs Attention particulière portée à la documentation (Base de connaissances : Service NOW Confluence, Wiki, Sharepoint, supports classiques) des procédures et dossier d'exploitation Profil RecherchéConnaissances Techniques Requises Le candidat doit avoir de solides connaissances sur : Unix Gestion des certificats Gestion des incidents Très bonnes connaissances sur les nouvelles technologies (notamment Kubernetes, Container, Docker, MongoDb, Kafka, ElasticSearch, PostgreSQL) sur lesquelles reposent les applications du périmètre Très bonne connaissance fonctionnelle des paiements Expertise Cloud/IKS/Openshift Le présent appel d'offre concerne le support avec une expertise technique Cloud/IKS/Openshift. Le candidat doit avoir une maîtrise de haut niveau sur les technologies Cloud : OpenShift Ansible Outils de gestion Infrastructure As Code (IaC) comme Terraform Kubernetes Docker Coffre-fort (Vault) ArgoCD Helm Sysdig Gitlab CI, Jenkins, etc…
Offre d'emploi
Ingénieur DBA solution Elastic et/ou MongoDB
Publiée le
Ansible
dBase
Elasticsearch
12 mois
46k-52k €
450 €
Montpellier, Occitanie
Télétravail partiel
Au sein de l'équipe de notre client, vous interviendrez sur le sujet "Patrimoine". Cette équipe intervient en particulier sur tous les SGBD / DATA utilisés pour les solutions mises à disposition du client. Missions : Réaliser l'administration courante de l’ensemble des SGBD de technologies ELASTIC/MONGODB spécifiques aux applications client en vue de garantir un taux de disponibilité des applications conforme aux attentes Faire le suivi des consommations et usages des plateformes SGBD, analyser, identifier et remonter tout changement de comportement. Maintien en condition opérationnelle des plateformes de Production, Homologation et Cycle Projet. Résoudre les incidents en lien avec les serveurs usages applicatifs. Apporter le support nécessaire aux tours applicatives. Maintenir à jour les documentations, les faire évoluer et les adapter aux changements (FCR ; Astreintes ; pilotages ; …) Accompagner les intervenants du cluster pour tous les sujets touchant aux SGBD ELASTIC/MONGODB (demandes, projets, exploitation, …) Automatiser les processus du périmètre (Run, Build) Participer aux astreintes pour une couverture du service 7j/7 et 24h/24 Missions associées : Activités Projets Activités Fonctionnement Suivre les obsolescences
Mission freelance
230795/Data OPS Niort Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana)
Publiée le
Control-M
Dynatrace
3 mois
320-350 £GB
Niort, Nouvelle-Aquitaine
Data Ops Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python Contexte : Mettre en place des outils et des méthodes d'industrialisation et d'automatisation de l’exploitation informatique dans des environnements Data (orchestration des données). • Définir et mettre en place des processus pour une meilleure collaboration/ coordination entre les équipes de développement et d'exploitation. • Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques d’infrastructure as code dans le cycle d'orchestration des données. • Intégrer et maintenir les CI/CD (intégration continue et livraison continue), les tests automatisés pour fluidifier les pipelines de développement et de déploiement. • Configurer les Runners Gitlab pour les différents projets afin d’assurer le déploiement continue. • Assurer la gestion des versions des configurations afin de reproduire facilement les déploiements. • Assurer le monitoring des assets en collaboration avec l'équipe d'exploitation. • Concevoir et maintenir des services d'assistance FINOPS (observabilité). • Fournir une formation et un support aux membres de l'équipe d'exploitation sur les bonnes pratiques, les outils et les technologies utilisées. • Rédiger et maintenir une documentation précise et à jour pour les configurations, les processus et les workflows des solutions mises en place. Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python
Mission freelance
Consultant Kafka H/F
Publiée le
Apache Kafka
API
DevOps
3 ans
550-650 €
Paris, France
Télétravail partiel
Contexte Au sein de l’équipe Data Analytics, nous concevons, déployons et maintenons des architectures Big Data destinées à répondre aux besoins internes de l’entreprise. Dans le cadre du renforcement de notre équipe support, nous recherchons un Data Engineer spécialisé Kafka pour intervenir sur des plateformes critiques à fort volume de données. Missions principales Mettre en œuvre son expertise sur Kafka (conception, configuration, optimisation et troubleshooting) Assurer le support, l’automatisation et le maintien en conditions opérationnelles (MCO) des plateformes Kafka Participer aux développements de l’équipe Data Analytics, notamment sur le projet “Topic as a Service” Contribuer à l’amélioration continue des architectures Big Data et des processus d’exploitation Assurer le support de la plateforme Worlwide Participer à la documentation technique et au partage des bonnes pratiques Interagir avec des équipes internationales dans un environnement anglophone Environnement technique Apache Kafka OpenSearch Elastic Stack : Elasticsearch, Logstash, Kibana, Beats Ansible Git / Bitbucket Développement Python REST APIs
Mission freelance
Expert WebMethod
Publiée le
Soap
18 mois
100-400 €
Paris, France
Télétravail partiel
Contexte Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Expert Spécialités technologiques : API La prestation vise à accompagner les activités de développement et de support de services pour une plateforme numérique, en particulier autour des produits Software AG (WebMethods). L’expert interviendra sur l’ensemble du cycle, de la conception à la production, en assurant l’indépendance et l’impartialité vis-à-vis d’autres prestations éventuellement attribuées. MISSIONS - Développement et support de services API et flux d’échange (SOAP/REST) sur la plateforme Digital PaaS, principalement basée sur WebMethods. - Maintien en condition opérationnelle de la plateforme. - Réalisation de prototypes et maquettes sur des concepts innovants (API Management, IoT, RealTime/Streaming Analytics, EAI/ESB, BPM, BAM, B2B, Big/Fast Data, modélisation des processus). - Rédaction de guides de bonnes pratiques et d’utilisation des fonctionnalités. - Production de rapports de tests de performance et de guides de configuration. - Rédaction de guides d’utilisation et de paramétrage des produits. Exigences principales : - Livrables rédigés en français (anglais sur demande), respectant les modèles fournis et validés selon des critères stricts de qualité orthographique et grammaticale. - Engagement sur la continuité de service, avec anticipation et gestion des absences, plans de secours, et backups. - Appropriation rapide des besoins fonctionnels et techniques, avec revue des spécifications et environnement technique. - Analyse et traitement des demandes de maintien en condition opérationnelle (MCO), reproduction des incidents, communication et suivi des actions correctives. - Respect des bonnes pratiques de développement logiciel (organisation dans Jira/Confluence, intégration continue avec DevOps, respect du référentiel technique et méthodologique). - Instruction et pilotage des demandes d’évolution, de l’expression de besoin à la mise en service, coordination des ateliers métier et rédaction des documents nécessaires. - Traitement des incidents jusqu’à leur clôture, rédaction des comptes-rendus et corrections. - Respect des exigences de sécurité définies dans les documents contractuels. Livrables attendus : - Planning des absences et backups, plans de secours, comptes rendus de réunions, revues des spécifications, rapports MCO, mises à jour Jira/Confluence, pilotage des évolutions, planning de recettes, traitement et comptes rendus d’incidents, contribution à la sécurité du SI, mise à jour de la documentation technique et fonctionnelle. Expertise souhaitée Environnement technique et compétences requises : - Maîtrise des outils bureautiques (Windows, Excel, Word, PowerPoint, Outlook, SharePoint, Teams), Confluence, Jira. - Expertise sur les technologies web service (SOAP, REST, XML, JSON), produits Software AG (WebMethods), Oracle SOA Suite, Java, Kafka, Elastic Search, Spinalcom, frameworks JS, middleware, DevSecOps (Jenkins, Ansible, Groovy). - Compétences en anticipation des impacts techniques, sécurité informatique, communication, animation de réunions, initiative, rédaction, SOA, méthode Agile SCRUM. - Polyvalence, autonomie, rigueur, organisation, esprit d’équipe, pragmatisme, connaissance du SI, compréhension des besoins internes. Compétences techniques et fonctionnelles attendues - Expertise sur les produits Software AG, notamment la gamme WebMethods et les technologies associées à l’intégration d’entreprise : SOA Gouvernance API Management Complex Event Processing Big & Fast Data Internet of Things Process Design & Performance AgileApps Mobile Suite Portfolio Management - Maîtrise des technologies web service et standards associés : SOAP, REST, XML, JSON, Swagger Conception et réalisation de services et flux d’échange - Connaissance des outils et environnements : Windows, Excel, Word, PowerPoint, Outlook, SharePoint, Teams Confluence et Jira Oracle SOA Suite et Service Bus Kafka, Elastic Search, Spinalcom Framework JS Middleware (webMethods, SOA, MFT, API Management…) Environnements agile et intégration continue DevSecOps (Jenkins, Ansible, Groovy) - Langages de programmation : Java XML, XSD, WSDL, XSL, HTML WS-SOAP, WS-REST JSON/Swagger Gestion des incidents et demandes : ITZMI Service Now Jira (gestion des tâches, backlog, sprint) Confluence (documentation) Compétences transverses : - Anticipation des impacts techniques et des risques associés - Connaissance des normes et règles de sécurité informatique et télécom - Communication orale et écrite, animation de réunions (audio ou physiques) - Prise d’initiatives, proposition de décisions et plans d’action - Esprit de synthèse, capacité à rédiger des documents (User Story, manuels utilisateurs…) - Connaissance des grands principes du SOA - Maîtrise de la méthode Agile SCRUM - Polyvalence, autonomie, bon relationnel, sens du service, force de proposition - Rigueur, organisation, écoute, travail en équipe, pragmatisme, sens du résultat - Connaissance du SI de l’entreprise et compréhension des besoins internes Compétences Technologies et Outils Windows SOAP Méthodes / Normes Intégration continue Agile Méthode agile Soft skills Force de proposition Rigueur Langues FrançaisAnglais
Mission freelance
POT8706 - Un Data Engineer NoSQL sur Nanterre
Publiée le
Nosql
6 mois
100-550 €
Nanterre, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients un Data Engineer NoSQL sur Nanterre Contexte et rôle Renforcement d’un pôle d’expertise technique autour des bases de données NoSQL. L’expert contribuera à la conception, l’industrialisation et l’exploitation de plateformes NoSQL, en environnement conteneurisé et cloud hybride Compétences techniques requises Maîtrise ElasticSearch (ELK Stack), configuration, optimisation et monitoring Expertise bases de données Graph (Cypher, RDF, LPG) Connaissance PostgreSQL / Oracle appréciée Maîtrise Docker, Kubernetes, OpenShift, Linux RedHat Bon niveau en scripting Shell, SQL/PLSQL Compréhension des environnements AWS / GCP Connaissance des outils DevOps (GitLab, Jenkins) Bonnes notions de Big Data, datavisualisation et virtualisation de données Bonne capacité de rédaction technique en français Soft skills Autonomie, rigueur, sens du résultat Capacité à communiquer et formaliser Force de proposition et leadership technique Livrables attendus Études techniques, POC et recommandations d’architecture Guides techniques, souches conteneurisées, scripts de déploiement Rapports d’audit et documentation de capitalisation.
Mission freelance
Expert MLOps & LLMOps
Publiée le
Amazon S3
Kubernetes
Large Language Model (LLM)
12 mois
600-650 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Expert MLOPS" pour un client dans le secteur de la finance Description 🎯 Contexte de la Mission L'environnement de travail : Le Lab Data Vous rejoindrez le Lab Data d'un acteur majeur dans son secteur, une équipe clé dont le périmètre d'action et l'impact ont considérablement augmenté. Ce Lab est au cœur de la stratégie data et IA de l'entreprise, agissant comme le moteur de l'accessibilité et de l'exploitation avancée des données ( Data Mesh et Data Lake ). L'équipe est responsable de la construction du magasin Workspace pour rendre accessibles les données et les analytics . Les Enjeux L'équipe est en pleine phase d'accélération ( Go-to-Market ) et gère actuellement une forte croissance, avec plus de 60 agents et modèles en production . L'objectif principal est de professionnaliser l'industrialisation des modèles et des agents IA. L'enjeu est critique : améliorer la vitesse et la maturité du suivi de production pour répondre à l'augmentation des utilisateurs, garantir une performance et une fiabilité irréprochables, et maintenir un onboarding rapide des nouvelles initiatives. 🚀 Missions Principales En tant qu' Expert MLOps , vous jouerez un rôle stratégique dans l'industrialisation, l'orchestration et l'opérationnalisation de la plateforme. Industrialisation des Agents et Modèles (MLOps & LLM Ops) : Définir et implémenter le ML Lifecycle Management complet (entraînement, versioning, déploiement continu et monitoring) pour tous les modèles et agents en production. Mettre en œuvre les processus LLM Ops spécifiques à l'industrialisation des Grands Modèles de Langage et des architectures avancées basées sur des agents. Orchestration et Opérationnalisation : Concevoir et maintenir les architectures d'orchestration basées sur Kubernetes . Assurer la connectivité du Data Lab, notamment via les connecteurs Spark et Workspace , et garantir la consommation des analytics par API . Soutenir l'exploitation de la Plateforme Agentique (ex. : Agent Orchestrator, Agent Catalog ) et des composants IA et Data Viz ( Elastic Search, Power BI ). Performance et Observabilité : Mener des actions pour accélérer la performance et l'exécution des flux de production. Mettre en place un système d' Observabilité avancé (critique pour cette mission) pour le suivi et l'amélioration continue de la qualité, de la stabilité et de la performance des modèles déployés. Montée en Compétence : Agir comme Professional Service en apportant votre expertise pour élever le niveau de maturité technique de l'équipe ( step up ) sur les meilleures pratiques MLOps.
Mission freelance
Junior JAVA Developpeur (H/F)
Publiée le
PostgreSQL
1 mois
350-400 €
Paris, France
Télétravail partiel
Notre client, Scale-Up Tech en forte croissance, accélère le renforcement de ses équipes techniques. Dans un contexte d’innovation soutenue (IA, nouveaux produits digitaux, optimisation de plateformes), le département Tech – plus de 350 collaborateurs – recherche plusieurs Développeurs Java (Juniors et seniors) pour renforcer ses squads produit et accompagner la montée en charge de ses applications web à fort trafic. Vos missions : Intégré à une squad produit composée d’un Product Manager, d’un Manager Java, de 5 développeurs et d’un testeur applicatif, vous interviendrez sur la conception, le développement et l’évolution d’applications web à fort trafic et haute disponibilité. Vos principales responsabilités : * * Concevoir et développer des fonctionnalités backend et ponctuellement front (80/20) en microservices. * Participer à la conception technique, aux revues de code et aux choix d’architecture. * Garantir la qualité, la performance et la robustesse du code. * Collaborer avec les équipes design, architecture, infra et data. * Contribuer aux bonnes pratiques : tests, CI/CD, revue de code, clean code. ### Stack technique * Langage : Java 21 (migration vers Java 25 prévue) * Framework : Spring Boot * Front : React / Redux * Messaging : Kafka * Base de données : PostgreSQL * Recherche : Elasticsearch * Infra : Docker, Kubernetes, AWS, Google Cloud * Méthodologie : Agile / Scrum
Offre d'emploi
Administrateur de bases de données H/F
Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL
1 an
40k-50k €
450-550 €
Nancy, Grand Est
Nous recherchons pour l’un de nos clients un Administrateur base de données H/F à Nancy pour une mission démarrant dès que possible. Vous gérer et administrer les systèmes de gestion de données de l'entreprise, en assure la cohérence, la qualité et la sécurité. Vous participez à la définition et à la mise en œuvre des bases de données et des progiciels retenus par l'entreprise Vos missions : · L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. · La gestion des incidents et participe à la résolution des problèmes · Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) · Maintien en conditions opérationnelles des plateformes · Suivi et amélioration des performances (mémoire, disques, index, requêtes), · Stratégies de sauvegarde, restauration et supervision · La gestion des accès et création des comptes autorisés à se connecter aux plateformes · De la veille technologique · La gestion documentaire du périmètre · Astreinte Les livrables attendus sont : · Scripts · Schémas techniques · Documentation technique
Mission freelance
DBA Cassandra Mysql Postgresql
Publiée le
Cassandra
MySQL
6 mois
550-650 €
Saint-Denis, Île-de-France
Télétravail partiel
En tant que DBA de Production spécialisé Cassandra / MySQL / PostgreSQL , vous évoluez dans un environnement moderne, distribué et critique hébergé entièrement sur AWS . Vous êtes responsable de l’exploitation, de la performance et de l’évolution de plusieurs clusters haute disponibilité, tout en participant activement aux projets de modernisation Cloud. Vos missions : Administration / exploitation de clusters Cassandra 4.x (environ 60 nœuds, 10 clusters de production). Administration des environnements MySQL 8.x (réplication avancée, InnoDB Cluster, ou Arbiters AWS). Gestion des clusters PostgreSQL 14/15 en réplication haute disponibilité (Streaming Replication, Patroni, etc.). Supervision avancée : mise en place / optimisation de Prometheus, Grafana, CloudWatch, Alertmanager. Gestion des incidents 24/7 (astreintes), diagnostiques et résolution Niveau 2 & 3. Gestion et automatisation des sauvegardes : pgBackRest, XtraBackup, snapshots AWS, tests de PRA. Rafraîchissement automatisé des environnements hors production (CI/CD, anonymisation, pipelines). Optimisation continue des performances (requêtes, indexation, tuning des clusters, optimisation IO). Documentation technique : normes, procédures, architecture data, runbooks. Projets structurants : Migration complète et modernisation sur AWS : Refonte des architectures Data sur AWS Automatisation via Terraform / Ansible Mise en conformité, durcissement et standardisation des clusters Migration / modernisation des clusters Cassandra 4.x vers des architectures AWS optimisées Contribution aux projets orientés conteneurisation (Docker / Kubernetes sur EKS — bonus). Environnement technique (100% AWS) : AWS Services : EC2, EBS, S3, EKS, IAM, CloudWatch, ALB/NLB, KMS, VPC, Secrets Manager, Backup. OS : Rocky Linux / RedHat 8.x Bases de données : Cassandra 4.x, MySQL 8.x, PostgreSQL 14/15 Écosystème : Elasticsearch 8.x, Kafka/MSK Outils : Terraform, Ansible, GitLab CI/CD, Prometheus, Grafana
Offre d'emploi
MLOps Engineer
Publiée le
Docker
Kubernetes
Python
1 an
35k-70k €
440-670 €
Île-de-France, France
Télétravail partiel
En tant que MLOps confirmé, l'objectif est de fournir une plateforme de données aux data scientists, tout en industrialisant les modèles d'apprentissage automatique. Il sera important d'être autonome sur l'industrialisation de modèles, mais également sur l'infra (compréhension de Docker/Kubernetes, mais aussi les modèles ML...) L'environnement technique comprend notamment: Python 3, OpenIDConnect, FastAPI, Redis, Ansible, Docker, Kubernetes, Beats, Elasticsearch, Grafana, Gitlab CI, Artifactory, Sonarqube...
Mission freelance
Développeur React JS - Confirmé - freelance - Rouen (76) H/F
Publiée le
1 mois
76000, Rouen, Normandie
Télétravail partiel
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Notre client souhaite faire évoluer son extranet client en ajoutant de nouvelles fonctionnalités et en améliorant les modules existants. Pour cela, nous recherchons un développeur autonome, capable de prendre en charge rapidement les sujets qui lui seront confiés, d’analyser les besoins et de proposer des solutions techniques adaptées. Votre mission (si vous l’acceptez) : Participer à la conception et au développement de l’interface utilisateur en React JS Consommer les API fournies par le back-end Laravel pour intégrer les fonctionnalités métier Assurer la qualité, la fluidité et la performance des interfaces Être force de proposition sur l’architecture front, l’UX et les composants réutilisables Collaborer au quotidien avec les équipes back, AMOA et PO dans un mode agile L’environnement technique : Front-end : React JS (confirmé exigé) Back-end : Laravel (équipe dédiée) Recherche : ElasticSearch (intégration dans certaines fonctionnalités) Architecture SaaS multi-tenant Base de données : MariaDB / SQL Server Vous, notre perle rare : Vous avez une expérience en tant que développeur avec au moins 3 à 5 ans d’expertise sur React JS. Vous maîtrisez les principes de développement front modernes (hooks, composants, gestion d’état, etc.). Vous avez la capacité à travailler en toute autonomie tout en collaborant étroitement avec une équipe pluridisciplinaire. Une expérience en environnement SaaS ou sur des projets à fort enjeux métiers sera appréciée. Les attendus concernant le savoir-être : Curieux, rigoureux, impliqué dans la qualité de son code Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ en fonction de votre expérience sur un environnement similaire. Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Développeur Laravel - Confirmé - freelance - Rouen (76) H/F
Publiée le
1 mois
76000, Rouen, Normandie
Télétravail partiel
ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Notre client souhaite faire évoluer son extranet client en ajoutant de nouvelles fonctionnalités et en améliorant les modules existants. Pour cela, nous recherchons un développeur autonome, capable de prendre en charge rapidement les sujets qui lui seront confiés, d’analyser les besoins et de proposer des solutions techniques adaptées. Votre mission (si vous l’acceptez) : Participer à la réécriture complète de l’application back-end avec Laravel Implémenter les nouvelles fonctionnalités métier définies avec l’AMOA et le PO Travailler en binôme avec les développeurs React JS sur les flux front/back Contribuer à la mise en place des bonnes pratiques de développement, sécurité et performance Participer aux cérémonies agiles (daily, sprint planning, etc.) L’environnement technique : Back-end : Laravel (version récente) Front-end : React JS (collaboration étroite avec l’équipe front) Base de données : MariaDB / SQL Server Architecture SaaS multi-tenant Recherche ElasticSearch intégrée à l’application Vous avez une expérience en tant que développeur back-end avec au moins 3 à 5 ans d’expérience sur Laravel. Vous avez une solide compréhension des API REST, de l’architecture logicielle et des enjeux back-end. Vous avez la capacité de vous intégrer dans une équipe projet structurée et à dialoguer avec les autres profils (AMOA, dev front, architecte…). Une première expérience SaaS est un plus à votre candidature. Les attendus concernant le savoir-être : Autonomie, rigueur et bon esprit d’équipe Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ : en fonction de votre expérience sur un environnement similaire. Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Ingénieur Réseau & Systèmes Senior (H/F)
Publiée le
Cisco
Fortinet
1 mois
40k-45k €
400-450 €
Île-de-France, France
Télétravail partiel
Localisation : Île-de-France (92) – Mission hybride Démarrage : Immédiat Durée : Longue mission Statut : Freelance ou CDI Contexte du poste Nous recherchons un Ingénieur Réseau & Systèmes Senior pour renforcer les équipes techniques d’un acteur majeur du Cloud et de l’infrastructure IT. Vous interviendrez sur des environnements complexes multi-Datacenters, avec une forte orientation automatisation, virtualisation et sécurité réseau. Missions principales Administration systèmes : Déployer et administrer les systèmes Linux (Red Hat, Debian, Ubuntu, CentOS) et Windows Server dans des environnements virtualisés (ESXi, KVM, Hyper-V). Rédiger les documents techniques (HLD/LLD, rapports d’incidents, guides d’exploitation). Automatiser les tâches récurrentes via Bash ou Ansible (sauvegardes, déploiements, patchs). Gérer les solutions de stockage SAN, NAS et objets (Fujitsu, TrueNAS, MiniO). Mettre en œuvre des outils de sécurisation et supervision : Wazuh, CrowdSec, Graylog, ElasticSearch. Administration réseau et sécurité : Configurer, maintenir et dépanner les équipements réseau et sécurité (Cisco, Fortinet, Palo Alto, F5, ZTE, H3C, Alcatel). Gérer les incidents N2/N3, assurer le suivi des SLA et rédiger les rapports d’intervention. Implémenter et maintenir les protocoles de routage et de sécurité : OSPF, BGP, MPLS, VRF, VPN IPsec/SSL, ACL, NAT. Administrer les pare-feux nouvelle génération (NGFW) et assurer la haute disponibilité des infrastructures. Participer à la mise en place et à l’optimisation du backbone IP/MPLS et des interconnexions Datacenter. Soft skills Esprit analytique et sens du diagnostic Capacité à documenter et partager les connaissances Autonomie et rigueur dans la gestion des priorités Excellente communication avec les équipes internes et les clients Pour postuler : Envoyez votre candidature (CV à jour et disponibilité) à :
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- Facturation électronique 01 : Rappel du calendrier !
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
31 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois