L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 562 résultats.
Offre d'emploi
Expert Sénior MQ
VISIAN
Publiée le
MQTT (Message Queuing Telemetry Transport)
Zabbix
1 an
40k-45k €
400-550 €
Île-de-France, France
Informations complémentaires sur la demande (contexte) Expertise sur le produit IBM MQ en environnement Open Maîtrise des versions 8, versions 9 et suivantes Maîtrise des solutions MQ en cluster Mise en place alerting sous Zabbix et création dashboard de monitoring via Grafana Implémentation en mode DEVOPS des solutions MQ Open Avoir intégré des solutions MQ en grande volumétrie transactionnelle Maîtrise Java Applications consommée par MQ Scripting, automatisation Ansible, Json, Shell pour installation et configuration solutions MQ
Offre d'emploi
Ingénieur / Administrateur Systèmes - Toulon
OCTOGONE
Publiée le
Administration linux
Administration Windows
8 mois
Toulon, Provence-Alpes-Côte d'Azur
Mission de raccordement de plateformes – Contexte cybersécurité Contexte Dans le cadre d’un plan de remédiation cybersécurité, plusieurs plateformes doivent être raccordées à un socle central de services (authentification, journalisation, mises à jour, NTP, DNS). Mission long terme avec déploiements successifs (≈ 1 plateforme/semaine), environnement partiellement documenté. __________ Activités principales • Paramétrage de postes de travail et de serveurs pour leur raccordement au socle • Configuration des services : o Authentification o Journalisation centralisée o NTP / DNS o Mises à jour systèmes • Application de directives techniques et sécurité non totalement finalisées • Contribution à la mise à jour d’un handbook technique • Intervention possible sur environnements en production ⚠️ Le réseau (interconnexion de bout en bout) n’est pas dans le périmètre. __________ Environnements & compétences requises Windows • Windows Server 2019, Windows 10 / 11 • Compétences : o Active Directory o DNS, NTP o Adressage IP o Firewalling (ouverture de ports) o Rattachement poste au domaine o Compréhension des mécanismes de mises à jour (ex : GPO) Linux • Oracle Linux 7/8/9, CentOS 5 à 7, Ubuntu (server/client), SUSE • Compétences : o Adressage IP o Gestion réseau & firewall selon OS (NetworkManager, systemd-networkd, interfaces, iptables, ufw, firewalld) o NTP, Rsyslog o Gestion des services (start/stop/status/debug) o Shell Linux, commandes de base o SSH
Offre d'emploi
Ingénieur Microsoft (Windows, Azure et M365)
FC Consulting
Publiée le
Active Directory
Administration Windows
DHCP (Dynamic Host Configuration Protocol)
12 mois
40k-45k €
300-400 €
Courbevoie, Île-de-France
Vos missions et activités seront : • Assurer le MCO et le support sur incident de l’ensemble des serveurs Windows, de l’active directory et du cloud Azure M365, EntraID … (ticketing N2 et N3) • Gérer et optimiser les infrastructures Microsoft Azure, y compris la configuration des ressources cloud, la gestion des abonnements et des services. • Concevoir, mettre en œuvre et administrer des services Microsoft 365 tels que Exchange Online, SharePoint Online, Teams, OneDrive etc , en assurant leur intégration et leur conformité. • Collaborer avec les équipes techniques pour définir et mettre en œuvre des solutions d'infrastructure basées sur les technologies windows, Azure et M365. • Assurer la veille technologique sur les nouvelles fonctionnalités, les bonnes pratiques et les innovations liées à Microsoft 365 / EntraID / Active directory et participer à la gestion de l’obsolescence. • Développer et déployer des systèmes de surveillance pour suivre l'état des serveurs et des services. • Mettre en place des politiques de gestion des identités et des accès (IAM) dans Azure Active Directory pour sécuriser l'accès aux ressources cloud. • Déployer et administrer les applications Microsoft 365, configurer les paramètres de sécurité et de conformité, et superviser les flux de données. • Concevoir des plans de sauvegarde et de reprise après sinistre pour les données hébergées dans Azure et Microsoft 365, en assurant leur intégrité et leur disponibilité. • Collaborer avec les équipes de développement pour intégrer les services Azure et Microsoft 365 aux applications existantes et aux workflows métier. Compétences techniques : • Administration des Systèmes Windows • Administration des solutions M365 (Exchange Online, Teams, sharepoint..), Azure EntraID • Scripting (PowerShell) • Administration DNS, Active Directory, DHCP • Connaissance des process ITIL • Connaissance large des systèmes d’information
Offre d'emploi
Data Engineer H/F
SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Elasticsearch
6 mois
50k-55k €
400-410 €
Île-de-France, France
Dans le cadre du développement de nos activités, nous recherchons un(e) Data Engineer pour renforcer l'équipe technique de notre client et intervenir sur des projets à forte valeur ajoutée autour de la data. En tant que Data Engineer, vous serez amené(e) à : Assurer le suivi technique des projets : suivi des développements, réalisation de revues de code et respect des bonnes pratiques Gérer les incidents techniques : analyse, résolution et mise en production des correctifs Proposer des améliorations techniques : identification des axes d’évolution et optimisation des performances et de la stabilité des applications Garantir la qualité du code : mise en place de tests unitaires et gestion de l’intégration continue Assurer la documentation technique : maintien à jour de l’architecture et de la documentation
Offre d'emploi
Senior React / .Net Developer (H/F)
SAS GEMINI
Publiée le
C#
React
3 ans
Île-de-France, France
Dans le cadre du renforcement d’une équipe IT Front Office, nous recherchons un(e) Senior React Developer afin de piloter l’évolution d’une plateforme UI stratégique pour notre client en finance de marché. Vous interviendrez sur la conception et l’évolution d’applications frontend critiques, avec un fort enjeu de performance, temps réel, scalabilité et maintenabilité . En tant que référent technique, vous serez garant(e) des bonnes pratiques de développement et contribuerez activement à l’amélioration continue de la plateforme. Missions principales : Piloter les orientations techniques et les évolutions de la plateforme UI Concevoir et développer des solutions frontend performantes et scalables Collaborer étroitement avec les équipes backend (API) Travailler en interaction directe avec les utilisateurs métiers pour améliorer l’expérience utilisateur Garantir la qualité du code (clean code, refactoring, tests) Participer aux choix d’architecture et aux bonnes pratiques Encadrer et accompagner les développeurs plus juniors (mentoring) Contribuer aux processus Agile et aux cycles de delivery Environnement technique : Frontend / Fullstack : JavaScript, TypeScript, React, Redux Toolkit, AgGrid, SignalR, HTML5, CSS, Tailwind CSS, NodeJS, Vite, Vitest Sécurité & Authentification : SSO, JWT, AUTH Outils & plateformes : MSW, IIS DevOps : Git (Bitbucket), TeamCity, PowerShell Compétences backend : C#, .NET, Windows Services, ClickHouse, Web API, architectures asynchrones (message-driven), ORM
Offre d'emploi
Data Engineer Kubernetes
KLETA
Publiée le
Helm
Kubernetes
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Administrateur système confirmé
SARIEL
Publiée le
Active Directory
DNS
Microsoft Entra ID
12 mois
La Défense, Île-de-France
Bonjour, Nous recherchons pour notre client situé en région parisienne un administrateur système confirmé. Description détaillée == Contexte La sécurisation et maitrise d'un Active Directory sont critiques car : - Les failles de sécurité sur AD peuvent compromettre l’intégralité du système d’information - L’AD centralise la gestion des identités et des accès, il est donc une cible privilégiée des attaques internes et externes - Une mauvaise configuration ou un manque de contrôle/compétence peut entraîner des fuites de données sensibles, des permissions excessives ou des interruptions de service critiques - La conformité réglementaire impose des contrôles stricts sur la gestion des accès A date, le Groupe dispose de (trop) nombreux AD et souhaite rationaliser cet écosystème Le premier périmètre concernera les domaines avec moins de 100 utilisateurs actifs et leur migration dans le domaine central du Groupe via l’outil Quest On Demand Migration La mission se déroule au sein de l’équipe Identity and Access Management, rattachée au département Security Infrastructure de la DSI du Groupe, en interaction avec un chef de projet IAM, les équipes cyber central et les équipes IT « locales ». == Missions principales 1. Analyse & Conception - Réaliser l’analyse détaillée des forêts Active Directory source et cible - Participer aux ateliers de conception et définir l’architecture technique Quest ODM - Définir et documenter les prérequis techniques (réseau, permissions, agents, comptes) - Proposer la stratégie de migration (synchronisation, mapping d’attributs…) - Identifier les limites produit et les impacts techniques pour le client 2. Sécurisation Cible : aligner la sécurité des AD sources avec l'AD cible - Revue des vulnérabilités - Remédiations 3. Installation & Configuration - Installer et configurer les agents Quest ODM sur les environnements source et cible - Valider l’intégrité des environnements 4. Pilotage des pilotes techniques et fonctionnels - Préparer les environnements de test et les objets AD de validation - Exécuter les pilotes techniques et fonctionnels - Documenter les résultats et produire les PV de validation - Ajuster la stratégie de migration 5. Gestion des migrations par lot (UO) - Lotissement des migrations - Synchroniser les objets AD, gérer les dépendances et orchestrer les actions. - Déployer les agents Quest ODM sur postes et serveurs - Réaliser et superviser les migrations pour chaque unité d’œuvre - Gérer les incidents et remédiations techniques pendant la migration 6. Support & Expertise - Assurer le support technique niveau expert pendant les migrations et en post-migration - Travailler étroitement avec les équipes AD locales, Applications et Sécurité - Assurer un transfert de compétences aux équipes internes - Produire la documentation finale et les rapports de migration Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Ingénieur·e Infra Réseaux( Min 9 ans d'exp) - H/F
TOHTEM IT
Publiée le
45k-55k €
Toulouse, Occitanie
Tu es passionné·e par les environnements réseau complexes et critiques ? Tu aimes résoudre des problèmes pointus et automatiser intelligemment ? Cette opportunité est faite pour toi. Tes missions Tu interviens sur des environnements réseau exigeants et à fort enjeu : Tu déploies et exploites des solutions SD-WAN (Fortinet, Versa) Tu conçois et intègres des architectures WAN / SD-WAN Tu prends en charge le troubleshooting de niveau 3 sur des environnements critiques Tu automatises les activités build & run via des développements Python Tu diagnostiques et résous des incidents de niveau 2/3 Tu assures le maintien en conditions opérationnelles (MCO) des infrastructures réseau Tu analyses les incidents, proposes des correctifs et des solutions de contournement Tu contribues à l’amélioration continue, à l’industrialisation et à l’optimisation Tu peux participer aux phases de design des architectures Tu installes, configures et valides les solutions techniques Tu coordonnes les intervenant·e·s techniques si nécessaire Tu veilles à la disponibilité, à la qualité de service et au respect des SLA
Mission freelance
IA ENGINEER
CHOURAK CONSULTING
Publiée le
AWS Cloud
GenAI
LangChain
3 mois
400-670 €
Île-de-France, France
Nous recherchons un LLM Engineer confirmé / senior avec un fort background Data Scientist , pour intervenir sur des projets stratégiques autour de l’ IA Générative et des architectures RAG sur AWS. 🎯 Contexte de la mission Vous intégrerez une équipe en charge de concevoir et industrialiser des solutions IA basées sur des LLM , avec des enjeux forts de performance, sécurité et scalabilité. L’objectif : passer du prototype à la production sur des cas d’usage métier à fort impact. ⚙️ Missions principales Concevoir et développer des solutions basées sur des LLM . Mettre en place des architectures RAG (Retrieval Augmented Generation) . Développer des agents IA avec LangChain / LlamaIndex ou frameworks équivalents. Déployer et industrialiser les solutions sur AWS . Optimiser les performances (fine-tuning, embeddings, prompt engineering avancé). Collaborer avec les équipes Data, IT et métiers pour cadrer les cas d’usage. Participer aux phases de POC puis d’industrialisation.
Offre d'emploi
DATA ENGINEER GCP - SALESFORCE (450€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
Salesforce
1 an
40k-45k €
320-440 €
Île-de-France, France
● Formation Bac+5 (école d’ingénieur ou université) orientée informatique, ou expérience équivalente. ● Bonne connaissance de l'écosystème Salesforce (modèles de données Marketing, Financial Cloud, Data Cloud). ● Ingénierie Data : Maîtrise de SQL et de Python pour le traitement de flux. ● API & Automation : Expérience dans la consommation d’API et l'utilisation d'orchestrateurs (Airfl ow/Composer). ● Soft Skills : Rigueur méthodologique, capacité à comprendre les processus métier bancaires et esprit d'équipe. GCP/DBT Livrables : ● Connecteurs API opérationnels et monitorés. ● Scripts de transformation et de chargement (ETL) documentés. ● Tableaux de bord de suivi des fl ux (alerting et logs de transfert). ● Documentation technique du mapping des objets Salesforce vers BigQuery.
Mission freelance
CONSULTANT CLOUD AWS / PLATEFORME
SKILL EXPERT
Publiée le
AWS Cloud
Gitlab
2 mois
550-600 €
Hauts-de-Seine, France
CONSULTANT CLOUD AWS / PLATEFORME COMPÉTENCES REQUISES CONSULTANT CLOUD AWS / PLATEFORME Confirmé AWS CLOUD, ARGOCD, GITLAB Confirmé TERRAGUNT, ARCHITECTURE Confirmé ANGLAIS LU, ÉCRIT, PARLÉ Confirmé Descriptif de la mission Notre Client recherche pour cette mission un Consultant Cloud AWS / Plateforme Les tâches au quotidien seront : • Définir, concevoir et mettre en œuvre les éléments techniques nécessaires à une stratégie de reprise après sinistre pilote sur AWS • Analyser l'architecture cible existante de reprise après sinistre à chaud pour les charges de travail critiques dans le cloud • Examiner et remettre en question les modèles techniques de basculement, de retour en arrière, de réplication, de synchronisation et d'orchestration de récupération • Traduire les exigences en matière de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives • Mettre en œuvre les composants d'infrastructure et de reprise après sinistre en utilisant l'infrastructure en tant que code et les principes GitOps • Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir une cohérence de bout en bout • Définir et documenter les procédures de basculement, de retour en arrière, de validation de la récupération et de test de reprise après sinistre • Identifier les risques techniques, les dépendances, les points de défaillance uniques et les lacunes opérationnelles Les compétences requises pour cette mission sont : • Justifier d'au moins 5/6 ans d'expérience professionnel dans ce domaine • Avoir une solide expérience dans l'exploitation de plateforme de production basée sur AWS • Avoir de bonnes compétences en matière d'infrastructure as code, en automatisation et de standardisation du déploiement • Justifier d'une solide connaissance de la haute disponibilité et des opérations de productions • Avoir de bonnes connaissances avec ArgoCD, Gitlab, Terragunt • Anglais lu, écrit, parlé Environnement technique de la prestation Aws Cloud, ArgoCD, Gitlab Terragunt, Architecture
Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF
ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes
1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Mission freelance
Expert DevOps / GitLab Senior – Mission longue
LINKWAY
Publiée le
DevOps
Gitlab
12 mois
610-620 €
Île-de-France, France
Dans le cadre du renforcement de son équipe plateforme DevOps , notre client recherche un Expert DevOps / GitLab Senior pour intervenir au sein d’un centre d’excellence DevOps, Data & IA . Vous intégrerez une équipe en charge de l’outillage CI/CD et contribuerez activement à l’évolution des pratiques DevSecOps, avec une forte orientation vers l’ automatisation, la sécurité et l’intégration de l’IA . Vos missions Intervenir en tant qu’ expert technique (Build / Run N3 / expertise) Concevoir, maintenir et faire évoluer les pipelines CI/CD (GitLab CI en cible) Participer à la migration et transformation vers GitLab CI Améliorer et industrialiser les outils de la chaîne DevOps : GitLab, Jenkins Nexus / Artifactory SonarQube, Selenium OpenBao (gestion des secrets) Contribuer à l’ évolution de l’offre de services DevOps selon les besoins métiers Accompagner les équipes techniques : montée en compétences diffusion des bonnes pratiques DevSecOps Participer aux sujets innovants autour de : GitLab Ultimate SAST / Checkmarx Intégration de l’IA dans la chaîne DevSecOps
Mission freelance
Data Engineer - Lille
ICSIS
Publiée le
Apache Kafka
CI/CD
DBT
2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Offre d'emploi
Architecte Data
R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop
1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Mission freelance
POT9076 - Un Chef de Projet/ Data - Success factor à IDF
Almatek
Publiée le
API
6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Chef de Projet/ Data - Success factor à IDF Compétences (1 à 3) : • Gestion de projet 2 • Conception de test 2 • analyse de données 3 • rédaction de contrat d’interface 2 définition de stratégie de recette 2 • Coordination d’acteur 2 • excel 3 • Administration fonctionnelle de Success factor module EC 3 • Outil de requêtage de base de données 3 • Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => • Analyse et correction des erreurs. • Suivi quotidien des flux (API, IC, middleware). • Mise en qualité des échanges de données. Optimisation des flux SF ? middleware => • Audit des interfaces existantes. • Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => • Rédaction des specs techniques. • Coordination IT / middleware. • Tests et support post go-live.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4562 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois