L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 938 résultats.
Mission freelance
DBA PostgreSQL & Oracle
Publiée le
Microsoft SQL Server
Oracle
PostgreSQL
18 mois
450 €
Seine-Saint-Denis, France
Notre client, recherche un un DBA confirmé (H/F) pour assurer le maintien en conditions opérationnelles (MCO), l’optimisation et la montée en compétence des équipes internes au sein d’une DSI d’un grand groupe international. La mission s’inscrit dans un contexte de remplacement d’un consultant externe et de transfert de compétences vers un alternant et des équipes déjà expérimentées. Le consultant sera amené à : - Administrer, maintenir et optimiser les bases de données PostgreSQL (principalement) et Oracle (pour certaines applications critiques, dont HR Access) - Assurer la sécurité, la sauvegarde et la restauration des environnements de production et de préproduction - Mettre en place et suivre les plans de maintenance (indexation, vacuum, statistiques, patchs, montées de version) - Réaliser des analyses de performance (requêtes, plans d’exécution, tuning SQL) et proposer des améliorations - Automatiser les tâches récurrentes via scripts Shell ou Python - Rédiger la documentation technique et former les équipes internes dans une logique de transfert de compétences - Participer aux projets de migration ou d’évolution vers des architectures hybrides (PostgreSQL, MariaDB, MongoDB)
Mission freelance
Data Scientist Sénior
Publiée le
Data science
Python
Rédaction technique
18 mois
150-450 €
Paris, France
Télétravail partiel
Contexte : Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : APIs, Simulation, Optimisation linéaire, Devops MISSIONS Dans le cadre du renforcement d’une équipe dédiée à la modélisation mathématique, le client recherche un Data Scientist Senior (>5 ans d’expérience) pour intervenir sur un ensemble de sujets variés : optimisation, simulation, analyse de performance, développement de modèles et d’outils applicatifs. La prestation s’inscrit dans un environnement comprenant plusieurs applications et modèles, et non un produit unique, nécessitant une forte capacité d’adaptation et une compréhension technique rapide. Le consultant interviendra en tant que référent senior, encadrant un Data Scientist junior et garantissant la qualité méthodologique et scientifique des travaux. Livrables attendus : - Validation des algorithmes d’optimisation. - Approbation des tableaux de bord et outils d’aide à la décision. - Revue critique des recommandations stratégiques. - Validation des rapports d’analyse et des indicateurs de performance. - Documentation des standards de qualité appliqués. Missions détaillées: 1. Encadrement & supervision méthodologique - Accompagnement d’un Data Scientist junior. - Définition des standards méthodologiques, bonnes pratiques et règles de modélisation. - Validation des approches algorithmiques et statistiques. - Orientation des travaux et identification des risques techniques. - Garantie de la cohérence globale des modèles par rapport aux objectifs du programme. 2. Développement & modélisation - Développement Python. - Création d’APIs. - Intégration de modèles. - Manipulation des équations et formalismes mathématiques. Utilisation de la librairie HiGHS (optimisation mathématique) pour : - Gestion des contraintes. - Calculs d’optimisations. - Résolution de modèles linéaires / mixtes. - Capacité à comprendre et implémenter les modèles algorithmiques, pas seulement à les consommer. 3. Contrôle qualité & validation scientifique - Revue de code, audit d’architecture et bonnes pratiques Python. - Vérification de la qualité et de la cohérence des données utilisées. - Validation de la robustesse des modèles prédictifs, d’optimisation ou de simulation. - Challenge technique des résultats, scénarios et hypothèses. - Approbation finale des livrables avant diffusion. 4. Expertise & conseil : - Intervention en tant qu’expert sur les sujets complexes de modélisation. - Recommandations méthodologiques et proposition d’améliorations. - Veille technologique et scientifique sur l’optimisation, les modèles mathématiques et les outils Python. - Capitalisation des bonnes pratiques pour l’équipe. 5. Communication & coordination : - Présentation des validations et recommandations aux parties prenantes. - Interface entre les équipes techniques et la direction projet. - Participation aux comités et instances de pilotage. - Documentation des critères de qualité et des processus de validation. - Contribution à la montée en compétences du Data Scientist junior. Compétences requises : - Expertise en Python : développement d’APIs, structuration de librairies, manipulation d’équations. - Maîtrise de HiGHS ou autre solveur d’optimisation linéaire/quadratique. - Solide bagage scientifique : mathématiques, physique, modélisation, statistiques. - Capacité à travailler sur plusieurs modèles simultanément. - Très bonne communication orale et écrite. - Autonomie forte et posture de référent. Compétences appréciées : - Expérience sur des modèles mathématiques à grande échelle. - Aisance en revue méthodologique et en cadrage scientifique. - Aucun besoin de connaissance fonctionnelle métier spécifique. Expertise souhaitée Data Scientist Senior (>5 ans d’expérience)
Offre d'emploi
OPS /OPS AZURE - Niort
Publiée le
Azure
Azure Kubernetes Service (AKS)
Openshift
2 ans
40k-45k €
320-500 €
Niort, Nouvelle-Aquitaine
Nous sommes à la recherche d'un OPS et d'un OPS AZURE pour l'un de nos clients sur le bassin niortais : - Accompagner les utilisateurs (développeurs, experts, OPS, BA, testeurs…) au quotidien : support, conseil, formation - Administrer / superviser les solutions hébergés sur RHEL 8.10, Azure et Openshift - Accompagner les squads sur les dimensions performance, robustesse, sécurité et fiabilité tout au long du cycle de vie des produits SI - Contribuer à la mise à disposition des environnements - Automatiser et industrialiser dans une logique « DevOps » pour servir le déploiement continu - Contribuer à, et garantir, l’exploitabilité et l’observabilité des produits - Préconiser les éléments liés au Capacity planning - Etre garant de la complétude du dossier d'exploitabilité - Contribuer à l'amélioration continue du produit
Offre d'emploi
Analyste Testeur(se) – Lille
Publiée le
HP ALM
Lille, Hauts-de-France
Télétravail partiel
🚀 ICSIS recrute un(e) Analyste Testeur(se) – Lille Depuis 12 ans, ICSIS , ESN lilloise à taille humaine, accompagne les grandes DSI de la région. Avec plus de 100 consultants , nous mettons autant l’accent sur l’expertise IT que sur les qualités humaines . Pour un beau client lillois , nous recherchons un(e) Analyste Testeur(se) motivé(e) et impliqué(e). 🎯 Vos missions Rédaction de stratégies et scénarios de tests fonctionnels Exécution des tests applicatifs, process et de non-régression Accompagnement en anglais lors de la qualification utilisateur (gestion des defects, re-tests, livraisons) Support au Chef de projet MOE pour le suivi des qualifications 🛠 Environnement technique HP ALM, SQL, Java, Angular, PowerBuilder ✅ Profil recherché Maîtrise de HP ALM et SQL Anglais autonome à l’oral et à l’écrit Bon relationnel, esprit d’analyse et autonomie Capacité de montée en compétence rapide sur les domaines crédit à la consommation et épargne 👉 Envie de nous rejoindre ? Postulez directement à À très vite chez ICSIS ! 😊
Offre d'emploi
Expert Python / API
Publiée le
API
Python
3 ans
Paris, France
Télétravail partiel
Conception & Développement Concevoir et développer un large volume d’API Python robustes, performantes et sécurisées. Structurer les composants, optimiser les flux et garantir la maintenabilité du code. Expertise & Autonomie Travailler en complète autonomie sur la conception, l’implémentation et les choix techniques. Être force de proposition sur les architectures, les patterns, l’outillage et les bonnes pratiques. Leadership & Challenger Pitcher les solutions auprès des équipes techniques, justifier les choix, challenger l’existant. Accompagner et guider les équipes en partageant les bonnes pratiques Python et Infra. Industrialisation Participer à l’intégration des API dans les pipelines existants. Connaissance approfondie des sujets d'optimisation via Ansible et Terraform (coeur de l'équipe).
Mission freelance
DevOps / Administrateur Ansible (Build & Intégration)
Publiée le
Ansible
DevOps
Linux
1 an
400-550 €
Île-de-France, France
Télétravail partiel
Participer à la création, l’installation et l’administration d’environnements techniques complets dans un contexte critique nécessitant fiabilité, automatisation et industrialisation. Concevoir, écrire et maintenir des playbooks et rôles Ansible permettant l’automatisation de la configuration, du déploiement et de l’Infrastructure as Code (IaC). Gérer et administrer des environnements Docker Swarm (clusters, services, montée en charge, résilience) ainsi que des environnements Linux (RedHat, CentOS, Debian) dans une logique de durcissement, optimisation et administration avancée. Assurer le déploiement, la configuration et la maintenance d’infrastructures virtualisées sous VMware, incluant la création et gestion de VM, la configuration réseau et l’intégration dans l’écosystème existant. Développer des scripts en Python et Bash pour l'automatisation de tâches complexes, l’intégration d’APIs, la gestion de workflows ou le renforcement des chaînes CI/CD. Contribuer à l’intégration de composants middleware (Vault, proxys, outils de sécurité, outils de supervision) et garantir une gestion sécurisée des secrets et configurations sensibles. Collaborer étroitement avec les équipes techniques (architectes, chefs de projet, développeurs) pour comprendre les besoins, concevoir les solutions cibles et assurer la mise en production dans les délais. Participer au maintien en conditions opérationnelles, au support de niveau avancé et à l’amélioration continue des environnements (monitoring, optimisation, documentation technique). Respecter les normes, procédures, bonnes pratiques DevOps et sécurité, contribuer à l'évolution de l’infrastructure et proposer des améliorations pour accroître la robustesse, la performance et l’automatisation globale du système.
Offre d'emploi
Ingénieur de production-devops
Publiée le
DevOps
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client grand compte (secteur bancaire) un ingénieur de production devops. Les objectifs de la mission sont les suivants : Assurer le support technique des environnements de développement, de recette et de production. Déployer les nouveaux packages et releases applicatives. Coordonner et contribuer aux opérations de migration ainsi qu’aux répétitions associées. Maintenir la documentation technique liée aux déploiements, aux serveurs et aux flux de données. Assurer l’exploitation et le suivi de la production. Contribuer aux opérations d’upgrade des infrastructures techniques (OS, bases de données, middlewares, outils DevOps, etc.) Maîtriser les outils de monitoring (Dynatrace, OpenSearch). Mettre en œuvre et maintenir les outils DevOps (Ansible, Jenkins, Terraform, Argo CD, Docker). Créer et configurer des batchs sous l’ordonnanceur Autosys. Développer des scripts Shell pour l’automatisation. Industrialiser et automatiser les processus de release. Suivre les tests de performance et anticiper les évolutions techniques.
Mission freelance
Un Administrateur Kubernetes à Lyon
Publiée le
Administration linux
6 mois
340-440 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses client, Un Administrateur Kubernetes à Lyon. Mission Nous recherchons un administrateur Kubernetes qui participera au tour d’astreinte Le produit Hadock est une offre d’hébergement et d’orchestration de conteneurs on-premise basée sur Kubernetes. Nos grands enjeux actuels tournent autour: - du run zéro crise (sujet valable pour toute la DSI) - d'une nouvelle version de l’offre «?v2?» (nouvelle stack technique basée sur Rancher/ArgoCD) laquelle doit arriver pour la fin de l’année 2025 - d’un sujet de transformation des applications pour les accompagner vers la mise en œuvre des bonnes pratiques Kube et ainsi une préparation à la migration vers notre offre V2 et à terme vers le cloud pour certaines - de l’automatisation pour se rapprocher des services des hyperscaleurs: services standardisés, as code,provisioning rapide, rationalisation des ressources, scalable, etc... (sujet valable pour tous les services d’infrastructure dont ceux de DIGIT) Afin de renforcer l’équipe Hadock, nous recherchons un profil SysOps Kubernetes senior avec une expérience confirmée en administration de clusters Kube / outillages associés, en environnements de production à fort enjeu. Le service Hadock est un produit du département DIGIT qui vise à fournir de l’hébergement de conteneurs orchestrés par Kubernetes. Nous utilisons également Rancher pour gérer nos quelques dizaines de clusters (et Kubespray pour nos 4 « gros » clusters historiques). Profil recherché : Les compétences recherchées sont les suivantes?(non exhaustives) : Système et Administration Linux : commandes Linux, scripting shell, file systems etc. Scripting: langages BASH, Python, etc. Networks and security : connaissances de base concernant DNS, VPN, firewall, proxy server, loadbalancer Stockage : connaissance de base concernant SAN, NAS CI/CD pipeline : Git, Ansible, ArgoCD Monitoring-supervision/logs : Victoria Metrics, Grafana, Prometheus, ... Containers : connaissances avancées concernant Kubernetes, Docker. Certification CKA, la CKS est un plus En complément, « nice to have » : Rancher, Peering BGP pour la micro-segmentation (Cilium <-> Cisco ACI et Cilium <-> Fortinet) Cloud computing : AWS, Azure, GCP... Les activités se déroulent autour de 3 grands axes : Le «build» qui suit le cycle de vie produit : Prototypage / Conception / Réalisation / Tests & Recette / Déploiement / livraison / Résorption Le MCO évolutif/correctif : Suivi du bon fonctionnement en production / Assurer les évolutions techniques de la plate-forme / Maintenir le niveau de sécurité des éléments de la plate-forme / Assister les équipes projets dans la prise en main de l’environnement Le «run» : Réponse à des demandes, support aux équipes projets et traitement des incidents/crises + Participation aux astreintes technique N3 soir&WE une fois les compétences suffisantes acquises; accompagnement à la mise en œuvre des bonnes pratiques Les livrables attendus sont les suivants: Code, Documentation technique, Procédures Techniques, Dossier d'Architecture Technique, Request For Change pour les CAB, MaJ des tickets dans Jira, Participation à lapréparation des PI planning ... Technologies & outillage mis en oeuvre : Kubernetes (kubeadm, rke2) 1.30; RedHat 9; f5 Big-IP; Calico; Cilium; Traefik 2 & 3; Docker ; Kyverno; Victoria Metrics; Prometheus; Grafana ; Loki ; Helm ; Chaos Mesh; Ansible ; Git; Artifactory; Kubespray, rke2, Rancher, Argo CD, Trident L’équipe est actuellement composée de 5 experts techniques et d’un Product Owner, accompagné d’un Scrum master et d’un Teachnical Leader Kubernetes?; fonctionne selon le modèle SAFe (Agilité à l’échelle). Les activités assurées peuvent concerner : Définir une architecture cible opérationnelle et résiliente / Réaliser des maquettes et des recettes afin de valider les choix, être force de proposition pour des évolutions Porter des arbitrages sur les solutions techniques et fonctionnelles à embarquer / S’assurer de la pertinence des briques choisies dans le contexte, comme de leur pérennité Assurer les montées de versions des différentes briques de la plate-forme et résoudre les problèmes (au sens ITIL) Accompagner et promouvoir l’approche micro-services des applicatifs et les bonnes pratiques induites / Assurer une veille technologique, autour des solutions retenues à minima.
Offre d'emploi
Data Engineer – Elastic Stack Expert
Publiée le
Apache Kafka
ELK
Intégration
1 an
Île-de-France, France
Télétravail partiel
Nous recherchons pour notre client Grand-Compte un Ingénieur Data , Expert ELK pour: accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données L’objectif est de passer d’une logique très outillée/infrastructure à une approche orientée usages data & métiers . Refonte complète de l’offre logs existante (tous types de logs : applicatifs, systèmes, réseau, sécurité) Forte volumétrie et enjeux de standardisation, qualité et exploitabilité de la donnée Missions Concevoir et mettre en œuvre les chaînes de collecte et d’ingestion des logs Implémenter et industrialiser les cas d’usage observabilité pour les équipes opérationnelles Accompagner les équipes métiers et techniques dans l’exploitation des logs Développer des dashboards et visualisations avancées (Kibana, évolution possible vers Grafana) Intervenir sur l’ensemble du cycle data : collecte → transformation → stockage → restitution Participer à l’évolution de l’offre groupe et à la structuration des bonnes pratiques Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source)
Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)
Publiée le
Azure
Python
1 an
750 €
Paris, France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Mission freelance
Développeur C++ / Qt / QML
Publiée le
Apache Kafka
C/C++
QML
3 ans
400-550 €
Île-de-France, France
Télétravail partiel
Pour l’un de nos clients grand compte , nous recherchons un Développeur C++ expérimenté. Contexte et missions Développement et maintenance d’applications en C++ (14/17/20) Développement d’interfaces graphiques avec Qt 6.8 et QML Développements complémentaires en Python Participation à la conception, aux tests et à l’optimisation des performances Collaboration avec des équipes pluridisciplinaires (logiciel, système, QA) Environnement technique C++ 14 / 17 / 20 Qt 6.8 / QML Python Linux RedHat et Windows MySQL
Offre d'emploi
Expert·e Openstack
Publiée le
50k-70k €
Paris, France
Télétravail partiel
Pour le compte de l'un de nos clients du CAC 40, nous recherchons un·e Expert·e Openstack ! Vos missions seront : - Etre force de propositions sur le développement et le maintiens de nouvelles fonctionnalités - Pouvoir représenter le produit Openstack Cloud Service au seins de comités - Pouvoir apporter sa contribution à la roadmap et à la stratégie produit - Contribuer à l'amélioration continue du projet - Participer à la maintenance du produit et au dépannage - Cloud Computing : AWS, Azure, Google Cloud, bonnes pratiques du cloud OpenStack (niveau maîtrise requis) -Outils de gestion : Active Directory, DNS, DHCP, NMS (Network Management System) -Langages de Scripting : Python, PowerShell, Bash -DevOps et Automatisation : Jenkins, Ansible, GitLab, Nexus -Orchestration de conteneurs : Kubernetes
Offre d'emploi
Responsable Projet Linux Embarqué
Publiée le
Administration linux
40k-50k €
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Responsable Projet Linux Embarqué – Profil Confirmé Dans un contexte de croissance, une société innovante recherche un Responsable Projet Linux Embarqué expérimenté pour renforcer son équipe R&D. Vous jouerez un rôle stratégique dans la conception et l’évolution de produits de télécommunications mobile de nouvelle génération, basés sur des technologies avancées et propriétaires. Descriptif du poste Environnement technique Vous évoluerez au sein d’un écosystème complet combinant développement Linux embarqué et télécommunications mobiles. Les solutions reposent sur différentes plateformes matérielles (ARM, x86, MIPS) interagissant avec une suite logicielle client/serveur et des bases de données, permettant la gestion centralisée de modems et de cartes SIM physiques ou virtuelles. Vos missions principales : Dans un environnement technique exigeant et stimulant, vous interviendrez sur l’ensemble du cycle de vie des produits, de la conception à la mise en production. Vos responsabilités incluront notamment : Concevoir de nouveaux équipements télécom, de la phase de spécification jusqu’à la livraison. Proposer et mettre en œuvre des évolutions techniques et fonctionnelles sur les plateformes existantes. Développer et intégrer de nouvelles fonctionnalités logicielles sur divers produits (routeurs mobiles, équipements MiFi, robots de test, serveurs de cartes SIM). Installer, configurer et maintenir les environnements de développement. Assurer les tests, la validation et la qualité des systèmes développés. Participer au support technique et à l’amélioration continue. Rédiger et tenir à jour la documentation technique. Profil recherché Vous êtes un ingénieur passionné par les systèmes embarqués et les télécommunications, à l’aise dans un environnement dynamique et innovant. Formation et expérience : Diplôme d’ingénieur ou équivalent (Bac+5). Expérience solide en développement Linux embarqué et en gestion de projets techniques. Compétences techniques clés : Maîtrise du développement C/C++ en environnement embarqué. Très bonnes connaissances du noyau Linux et des drivers. Pratique confirmée des outils de développement sous Linux (Shell, cross-compilation, RPM, environnements type Red Hat). Bonne compréhension des infrastructures réseau (routage IP, VPN, firewall...). Anglais technique et professionnel. Soft skills appréciés : Esprit d’équipe, autonomie, curiosité. Rigueur et capacité à gérer plusieurs projets simultanément. Goût pour l’innovation et la résolution de problèmes complexes. Une rémunération attractive sera proposée en fonction de l’expérience et du profil. Si vous souhaitez rejoindre une équipe dynamique, participer au développement de technologies embarquées de pointe, et contribuer à façonner l’avenir des télécommunications, ce poste est fait pour vous. Rémunération : 45K à 55K selon profil
Mission freelance
Chef de projet/Expert technique Linux Rocky
Publiée le
Linux
Powershell
Python
24 mois
450-600 €
Île-de-France, France
Télétravail partiel
Pour le compte de l' un de nos clients dans le domaine du retail, nous recherchons un Chef de projet/Expert technique Linux Rocky. Vous aurez en charge de piloter le chantier d'intégration sur les équipements en points de vente, caisses diverses et VM du serveur point de vente en commençant par la couche système d'exploitation Linux distribution Rocky 9. Vos missions principales seront: de mettre en place la stratégie d'authentification système de gérer des disques des machines et des rôles de chaque disque de gérer l' automatisation des MAJ systèmes et des retours arrières d'effectuer les choix et les accompagnements sur les langages de scripting (python, powershell) de gérer la mise en œuvre des outillages systèmes d'effectuer la mise en œuvre de la stratégie de déploiement automatisé de gérer la coordination et le suivi des actions des différents acteurs de son chantier de gérer le pilotage de l' avancement des travaux et des engagements (couts, délai, périmètre) d'effectuer la préparation et l' animation des comités de son chantier
Mission freelance
INGENIEUR DEVOPS IaC H/F
Publiée le
Ansible
Azure DevOps
Bash
3 mois
Le Havre, Normandie
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un(e) Ingénieur(e) DevOps H/F spécialisé(e) Infrastructure as Code. Vous interviendrez dans un contexte d’éditeur de logiciels disposant d’une infrastructure cloud hybride Azure / on‑premises, engagée dans une transformation vers des architectures microservices. La mission consiste à reprendre, rationaliser et industrialiser l’existant IaC, tout en contribuant à l’automatisation, à la sécurisation et à la standardisation des pratiques DevOps. Objectif et livrable: Audit et refonte des scripts Terraform et Ansible existants Mise en place de modules IaC réutilisables et documentés Automatisation CI/CD (Azure DevOps ou GitHub Actions) Pipelines de gestion du cycle de vie des certificats SSL/TLS Documentation technique, runbooks MCO/MCS et recommandations d’architecture Compétences attendues: Maîtrise de Microsoft Azure (VNet, NSG, VM, Storage, Application Gateway/WAF, AKS, Key Vault) Automatisation CI/CD avec Azure DevOps ou GitHub Actions Infrastructure as Code : Terraform avancé, Ansible, scripting Bash Administration systèmes Linux (Red Hat, Debian) et Windows Server Environnements hybrides : on‑premises, virtualisation (Proxmox, Hyper‑V, Nutanix) Connaissances Kubernetes (RKE2, K3s, OpenShift), Helm/Kustomize
Offre d'emploi
Ingénieur systèmes Infra Cohesity
Publiée le
Cohesity
NAS
VMware
12 mois
40k-70k €
400-600 €
Hauts-de-Seine, France
Télétravail partiel
Descriptif des missions : La mission se déroulera au sein de l’équipe OSI système (On Site Infrastructure) responsable du maintien en conditions opérationnelles des infrastructures locales en France ainsi que de leur évolution. Descriptif de votre mission au sein de l’équipe Intégré à l’équipe CTO infrastructure OSI, vous rapportez au responsable de l’équipe OSI France. Vous contribuerez au déploiement des standards industriels et participerez aux projets de nos entités impliquant des déploiements d’infrastructures locales. D’un caractère curieux, vous serez en mesure de travailler sur tout le périmètre technologique maîtrisé par l’équipe. Objectifs et livrables Intégré au sein de l’équipe OSI système (On Site Infrastructure), vous contribuerez à la migration de Netbackup vers Cohesity : Accompagner l’équipe projet dans la mise en place de la nouvelle solution de backup Cohesity Aider, grâce votre expertise Cohesity avec plusieurs années de pratique, à la conception, la mise en oeuvre, aux évolutions et maintien en conditions opérationnelles, des systèmes Cohesity Rédiger des procédures pour l’équipe de supervision / support N1+ N2 Traiter des tickets N2/N3 escaladés L’environnement technique est le suivant : Environ 1900 serveurs (dont 450 serveurs physiques) répartis sur 115 sites OS Windows server 2016 / 2019 / 2022, Linux RedHat, VMware ESXi / VCenter / VSAN WSUS Scripting – PowerShell / Bash / Ansible SQL Server NAS / SAN Zabbix Cohesity NetApp Quelle équipe pour vous accompagner ? L’équipe OSI est composée d’une quinzaine de personnes, la grande majorité est basée à la Défense. L’équipe de supervision et niveau 1 et 2 est basée en Inde, elle est composée de 7 personnes. Votre expérience : Environ 3-6 ans d'expérience à des postes similaires Anglais Compétences comportementales : Capacités relationnelles Curiosité, dynamisme, autonomie, esprit d’initiative Sens du service Réactivité Rigueur et ténacité Qualité de communication orale et écrite en français et en anglais Esprit d’équipe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
1938 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois